Des chercheurs utilisent un chatbot d'IA pour modifier les croyances en matière de théorie du complot

18 septembre 2024

  • Des chercheurs ont utilisé un chatbot d'IA pour convaincre les utilisateurs d'abandonner leur croyance dans les théories du complot.
  • La confiance des participants dans la théorie du complot qu'ils avaient choisie a diminué en moyenne de 21%
  • Le changement de croyance a persisté chez de nombreux participants deux mois après leur interaction avec le chatbot

Environ 50% des Américains croient aux théories du complot d'un type ou d'un autre, mais des chercheurs du MIT et de l'université de Cornell pensent que l'IA peut y remédier.

Dans leur papierDans le cadre de cette étude, les chercheurs en psychologie ont expliqué comment ils ont utilisé un chatbot alimenté par GPT-4 Turbo pour interagir avec les participants afin de voir s'ils pouvaient être persuadés d'abandonner leur croyance en une théorie du complot.

L'expérience a été menée auprès de 1 000 participants à qui l'on a demandé de décrire une théorie du complot à laquelle ils croyaient et les preuves qui, selon eux, étayaient leur croyance.

Le document note que "d'importantes théories psychologiques proposent que de nombreuses personnes souhaitent adopter des théories du complot (pour satisfaire des "besoins" ou des motivations psychiques sous-jacentes) et que, par conséquent, les croyants ne peuvent être convaincus d'abandonner ces croyances infondées et invraisemblables à l'aide de faits et de contre-preuves".

Un chatbot d'IA pourrait-il être plus persuasif là où d'autres ont échoué ? Les chercheurs ont proposé deux raisons pour lesquelles ils soupçonnent les LLM de mieux réussir que vous à convaincre votre collègue que l'alunissage a bien eu lieu.

Les LLM ont été formés sur la base de grandes quantités de données et ils sont très doués pour adapter les contre-arguments aux spécificités des croyances d'une personne.

Après avoir décrit la théorie du complot et les preuves, les participants se sont engagés dans des interactions en va-et-vient avec le chatbot. Le chatbot a été invité à "persuader très efficacement" les participants de changer leur croyance dans la conspiration choisie.

Le résultat est qu'en moyenne, les participants ont vu leur croyance en la conspiration, qu'ils considéraient auparavant comme vraie, diminuer de 21,43%. La persistance de l'effet est également intéressante. Jusqu'à deux mois plus tard, les participants ont conservé leurs nouvelles croyances concernant la conspiration à laquelle ils croyaient auparavant.

Les chercheurs ont conclu que "de nombreux conspirationnistes, y compris ceux qui sont fermement attachés à leurs croyances, ont modifié leur point de vue lorsqu'ils ont été confrontés à une IA qui s'opposait de manière convaincante à leurs positions".

Ils suggèrent que l'IA pourrait être utilisée pour contrer les théories du complot et les fake news Les médias sociaux ne sont pas les seuls à diffuser des informations sur le sujet, et il convient de les contrecarrer par des faits et des arguments bien fondés.

Bien que l'étude se soit concentrée sur les théories du complot, elle note qu'"en l'absence de garde-fous appropriés, il est toutefois tout à fait possible que de tels modèles puissent également convaincre des personnes d'adopter des croyances épistémiquement suspectes ou être utilisés comme outils de persuasion à grande échelle de manière plus générale".

En d'autres termes, l'IA est très douée pour vous convaincre de croire les choses qu'elle est incitée à vous faire croire. En outre, un modèle d'IA ne sait pas intrinsèquement ce qui est "vrai" et ce qui ne l'est pas. Il dépend du contenu de ses données d'apprentissage.

Les chercheurs ont obtenu leurs résultats en utilisant le GPT-4 Turbo, mais le GPT-4o et les nouveaux modèles o1 sont les suivants encore plus persuasive et trompeuse.

L'étude a été financée par la Fondation John Templeton. L'ironie de la chose, c'est que les Templeton Freedom Awards sont administrés par l'Atlas Economic Research Foundation. Ce groupe s'oppose à toute action contre le changement climatique et défend l'industrie du tabac, qui le finance également.

Les modèles d'IA deviennent très persuasifs et les personnes qui décident de ce qui constitue la vérité détiennent le pouvoir.

Les mêmes modèles d'IA qui pourraient vous convaincre de ne plus croire que la terre est plate pourraient être utilisés par des lobbyistes pour vous convaincre que les lois anti-tabac sont mauvaises et que le changement climatique n'est pas en train de se produire.

Rejoindre l'avenir


SOUSCRIRE AUJOURD'HUI

Clair, concis, complet. Maîtrisez les développements de l'IA avec DailyAI

Eugène van der Watt

Eugene a une formation d'ingénieur en électronique et adore tout ce qui touche à la technologie. Lorsqu'il fait une pause dans sa consommation d'informations sur l'IA, vous le trouverez à la table de snooker.

×

PDF GRATUIT EXCLUSIF
Gardez une longueur d'avance avec DailyAI

Inscrivez-vous à notre newsletter hebdomadaire et recevez un accès exclusif au dernier eBook de DailyAI : 'Mastering AI Tools : Your 2024 Guide to Enhanced Productivity" (Maîtriser les outils de l'IA : votre guide 2024 pour une meilleure productivité).

*En vous abonnant à notre lettre d'information, vous acceptez nos conditions d'utilisation. Politique de confidentialité et notre Conditions générales d'utilisation