undefined cover
undefined cover
Chatbots : comment 9 minutes de conversation suffisent à modifier vos convictions cover
Chatbots : comment 9 minutes de conversation suffisent à modifier vos convictions cover
ZD Tech : tout comprendre en moins de 3 minutes avec ZDNet

Chatbots : comment 9 minutes de conversation suffisent à modifier vos convictions

Chatbots : comment 9 minutes de conversation suffisent à modifier vos convictions

02min |12/12/2025
Play
undefined cover
undefined cover
Chatbots : comment 9 minutes de conversation suffisent à modifier vos convictions cover
Chatbots : comment 9 minutes de conversation suffisent à modifier vos convictions cover
ZD Tech : tout comprendre en moins de 3 minutes avec ZDNet

Chatbots : comment 9 minutes de conversation suffisent à modifier vos convictions

Chatbots : comment 9 minutes de conversation suffisent à modifier vos convictions

02min |12/12/2025
Play

Description

Plongeons au cœur d'une nouvelle étude publiée dans la revue Science, qui révèle comment les chatbots parviennent à manipuler nos opinions, parfois au détriment de la vérité.

Convictions perméables

Tout d'abord, il faut souligner l'ampleur inédite de cette étude. Des chercheurs ont mené l'expérience sur près de 77 000 adultes au Royaume-Uni. Ces participants ont dialogué avec 19 modèles d'IA différents, incluant des poids lourds comme GPT-4o d'OpenAI ou Llama de Meta, sur des sujets politiques sensibles.

Et le résultat est sans appel. Une courte conversation, d'une durée moyenne de neuf minutes, suffit à modifier significativement les croyances des utilisateurs.

L'étude prouve que nos convictions, que nous pensons souvent inébranlables et personnelles, sont en réalité bien plus perméables à l'influence artificielle qu'on ne l'imagine.

"Post-entraînement à la persuasion" et densité d'information

Ensuite, l'étude met en lumière la mécanique précise de cette persuasion.

Contrairement aux idées reçues, ce n'est ni la taille du modèle, ni sa capacité à personnaliser les réponses en fonction de votre personnalité qui priment. Les deux facteurs clés identifiés sont le "post-entraînement à la persuasion" et la densité d'information.

  • Concrètement, l'idée du "post-entraînement à la persuasion" c'est que les modèles sont "récompensés" durant leur apprentissage lorsqu'ils adoptent des arguments jugés convaincants par des humains.

  • Mais c'est véritablement la densité d'information qui est la stratégie la plus efficace employée par l'IA. Elle consiste simplement à bombarder l'utilisateur de faits et de preuves apparentes pour soutenir son argumentation.

Corrélation inquiétante entre persuasion et hallucination

Enfin, il existe un véritable danger, surtout si vous consultez ces outils sur votre smartphone pour vous informer. L'étude note qu'il existe une corrélation inquiétante entre persuasion et hallucination.

Les chercheurs ont en effet découvert que plus un modèle est entraîné pour être persuasif, plus il est susceptible de générer de fausses informations.

En clair, pour convaincre à tout prix, l'IA a tendance à inventer des faits ou à déformer la réalité. Cette tension fondamentale pose un risque majeur, car ces mécanismes pourraient être exploités par des acteurs malveillants pour manipuler l'opinion publique à grande échelle.

Le ZD Tech est sur toutes les plateformes de podcast ! Abonnez-vous !


Hébergé par Ausha. Visitez ausha.co/politique-de-confidentialite pour plus d'informations.

Description

Plongeons au cœur d'une nouvelle étude publiée dans la revue Science, qui révèle comment les chatbots parviennent à manipuler nos opinions, parfois au détriment de la vérité.

Convictions perméables

Tout d'abord, il faut souligner l'ampleur inédite de cette étude. Des chercheurs ont mené l'expérience sur près de 77 000 adultes au Royaume-Uni. Ces participants ont dialogué avec 19 modèles d'IA différents, incluant des poids lourds comme GPT-4o d'OpenAI ou Llama de Meta, sur des sujets politiques sensibles.

Et le résultat est sans appel. Une courte conversation, d'une durée moyenne de neuf minutes, suffit à modifier significativement les croyances des utilisateurs.

L'étude prouve que nos convictions, que nous pensons souvent inébranlables et personnelles, sont en réalité bien plus perméables à l'influence artificielle qu'on ne l'imagine.

"Post-entraînement à la persuasion" et densité d'information

Ensuite, l'étude met en lumière la mécanique précise de cette persuasion.

Contrairement aux idées reçues, ce n'est ni la taille du modèle, ni sa capacité à personnaliser les réponses en fonction de votre personnalité qui priment. Les deux facteurs clés identifiés sont le "post-entraînement à la persuasion" et la densité d'information.

  • Concrètement, l'idée du "post-entraînement à la persuasion" c'est que les modèles sont "récompensés" durant leur apprentissage lorsqu'ils adoptent des arguments jugés convaincants par des humains.

  • Mais c'est véritablement la densité d'information qui est la stratégie la plus efficace employée par l'IA. Elle consiste simplement à bombarder l'utilisateur de faits et de preuves apparentes pour soutenir son argumentation.

Corrélation inquiétante entre persuasion et hallucination

Enfin, il existe un véritable danger, surtout si vous consultez ces outils sur votre smartphone pour vous informer. L'étude note qu'il existe une corrélation inquiétante entre persuasion et hallucination.

Les chercheurs ont en effet découvert que plus un modèle est entraîné pour être persuasif, plus il est susceptible de générer de fausses informations.

En clair, pour convaincre à tout prix, l'IA a tendance à inventer des faits ou à déformer la réalité. Cette tension fondamentale pose un risque majeur, car ces mécanismes pourraient être exploités par des acteurs malveillants pour manipuler l'opinion publique à grande échelle.

Le ZD Tech est sur toutes les plateformes de podcast ! Abonnez-vous !


Hébergé par Ausha. Visitez ausha.co/politique-de-confidentialite pour plus d'informations.

Share

Embed

You may also like

Description

Plongeons au cœur d'une nouvelle étude publiée dans la revue Science, qui révèle comment les chatbots parviennent à manipuler nos opinions, parfois au détriment de la vérité.

Convictions perméables

Tout d'abord, il faut souligner l'ampleur inédite de cette étude. Des chercheurs ont mené l'expérience sur près de 77 000 adultes au Royaume-Uni. Ces participants ont dialogué avec 19 modèles d'IA différents, incluant des poids lourds comme GPT-4o d'OpenAI ou Llama de Meta, sur des sujets politiques sensibles.

Et le résultat est sans appel. Une courte conversation, d'une durée moyenne de neuf minutes, suffit à modifier significativement les croyances des utilisateurs.

L'étude prouve que nos convictions, que nous pensons souvent inébranlables et personnelles, sont en réalité bien plus perméables à l'influence artificielle qu'on ne l'imagine.

"Post-entraînement à la persuasion" et densité d'information

Ensuite, l'étude met en lumière la mécanique précise de cette persuasion.

Contrairement aux idées reçues, ce n'est ni la taille du modèle, ni sa capacité à personnaliser les réponses en fonction de votre personnalité qui priment. Les deux facteurs clés identifiés sont le "post-entraînement à la persuasion" et la densité d'information.

  • Concrètement, l'idée du "post-entraînement à la persuasion" c'est que les modèles sont "récompensés" durant leur apprentissage lorsqu'ils adoptent des arguments jugés convaincants par des humains.

  • Mais c'est véritablement la densité d'information qui est la stratégie la plus efficace employée par l'IA. Elle consiste simplement à bombarder l'utilisateur de faits et de preuves apparentes pour soutenir son argumentation.

Corrélation inquiétante entre persuasion et hallucination

Enfin, il existe un véritable danger, surtout si vous consultez ces outils sur votre smartphone pour vous informer. L'étude note qu'il existe une corrélation inquiétante entre persuasion et hallucination.

Les chercheurs ont en effet découvert que plus un modèle est entraîné pour être persuasif, plus il est susceptible de générer de fausses informations.

En clair, pour convaincre à tout prix, l'IA a tendance à inventer des faits ou à déformer la réalité. Cette tension fondamentale pose un risque majeur, car ces mécanismes pourraient être exploités par des acteurs malveillants pour manipuler l'opinion publique à grande échelle.

Le ZD Tech est sur toutes les plateformes de podcast ! Abonnez-vous !


Hébergé par Ausha. Visitez ausha.co/politique-de-confidentialite pour plus d'informations.

Description

Plongeons au cœur d'une nouvelle étude publiée dans la revue Science, qui révèle comment les chatbots parviennent à manipuler nos opinions, parfois au détriment de la vérité.

Convictions perméables

Tout d'abord, il faut souligner l'ampleur inédite de cette étude. Des chercheurs ont mené l'expérience sur près de 77 000 adultes au Royaume-Uni. Ces participants ont dialogué avec 19 modèles d'IA différents, incluant des poids lourds comme GPT-4o d'OpenAI ou Llama de Meta, sur des sujets politiques sensibles.

Et le résultat est sans appel. Une courte conversation, d'une durée moyenne de neuf minutes, suffit à modifier significativement les croyances des utilisateurs.

L'étude prouve que nos convictions, que nous pensons souvent inébranlables et personnelles, sont en réalité bien plus perméables à l'influence artificielle qu'on ne l'imagine.

"Post-entraînement à la persuasion" et densité d'information

Ensuite, l'étude met en lumière la mécanique précise de cette persuasion.

Contrairement aux idées reçues, ce n'est ni la taille du modèle, ni sa capacité à personnaliser les réponses en fonction de votre personnalité qui priment. Les deux facteurs clés identifiés sont le "post-entraînement à la persuasion" et la densité d'information.

  • Concrètement, l'idée du "post-entraînement à la persuasion" c'est que les modèles sont "récompensés" durant leur apprentissage lorsqu'ils adoptent des arguments jugés convaincants par des humains.

  • Mais c'est véritablement la densité d'information qui est la stratégie la plus efficace employée par l'IA. Elle consiste simplement à bombarder l'utilisateur de faits et de preuves apparentes pour soutenir son argumentation.

Corrélation inquiétante entre persuasion et hallucination

Enfin, il existe un véritable danger, surtout si vous consultez ces outils sur votre smartphone pour vous informer. L'étude note qu'il existe une corrélation inquiétante entre persuasion et hallucination.

Les chercheurs ont en effet découvert que plus un modèle est entraîné pour être persuasif, plus il est susceptible de générer de fausses informations.

En clair, pour convaincre à tout prix, l'IA a tendance à inventer des faits ou à déformer la réalité. Cette tension fondamentale pose un risque majeur, car ces mécanismes pourraient être exploités par des acteurs malveillants pour manipuler l'opinion publique à grande échelle.

Le ZD Tech est sur toutes les plateformes de podcast ! Abonnez-vous !


Hébergé par Ausha. Visitez ausha.co/politique-de-confidentialite pour plus d'informations.

Share

Embed

You may also like