Forscher nutzen AI-Chatbot, um den Glauben an Verschwörungstheorien zu verändern

18. September 2024

  • Forscher setzten einen KI-Chatbot ein, um Nutzer davon zu überzeugen, ihren Glauben an Verschwörungstheorien aufzugeben
  • Das Vertrauen der Teilnehmer in die von ihnen gewählte Verschwörungstheorie sank um durchschnittlich 21%
  • Die veränderte Überzeugung hielt bei vielen Teilnehmern auch zwei Monate nach ihrer Interaktion mit dem Chatbot an

Rund 50% der Amerikaner glauben an die eine oder andere Verschwörungstheorie, aber Forscher des MIT und der Cornell University glauben, dass KI das Problem lösen kann.

In ihrem Papiererläuterten die Psychologieforscher, wie sie einen von GPT-4 Turbo angetriebenen Chatbot einsetzten, um mit den Teilnehmern zu interagieren und zu sehen, ob sie davon überzeugt werden können, ihren Glauben an eine Verschwörungstheorie aufzugeben.

In dem Experiment wurden 1.000 Teilnehmer gebeten, eine Verschwörungstheorie zu beschreiben, an die sie glaubten, und die Beweise zu nennen, die ihrer Meinung nach ihren Glauben untermauerten.

In der Abhandlung heißt es: "Bekannte psychologische Theorien gehen davon aus, dass viele Menschen Verschwörungstheorien übernehmen wollen (um die zugrunde liegenden psychischen "Bedürfnisse" oder Motivationen zu befriedigen), und daher können Gläubige nicht durch Fakten und Gegenbeweise davon überzeugt werden, diese unbegründeten und unplausiblen Überzeugungen aufzugeben".

Könnte ein KI-Chatbot überzeugender sein, wo andere versagt haben? Die Forscher nannten zwei Gründe, warum sie vermuteten, dass LLMs besser als Sie Ihren Kollegen davon überzeugen könnten, dass die Mondlandung wirklich stattgefunden hat.

Die LLMs wurden anhand großer Datenmengen geschult und sind wirklich gut darin, Gegenargumente auf die Besonderheiten der Überzeugungen einer Person zuzuschneiden.

Nachdem sie die Verschwörungstheorie und die Beweise beschrieben hatten, führten die Teilnehmer eine Hin- und Her-Interaktion mit dem Chatbot. Der Chatbot wurde aufgefordert, die Teilnehmer "sehr effektiv zu überzeugen", ihren Glauben an die von ihnen gewählte Verschwörung zu ändern.

Das Ergebnis war, dass die Teilnehmer im Durchschnitt 21,43% weniger an die Verschwörung glaubten, die sie zuvor für wahr hielten. Interessant war auch die Dauerhaftigkeit des Effekts. Bis zu zwei Monate später behielten die Teilnehmer ihre neuen Überzeugungen über die Verschwörung, an die sie zuvor geglaubt hatten, bei.

Die Forscher kamen zu dem Schluss, dass "viele Verschwörungstheoretiker - auch solche, die fest an ihre Überzeugungen glauben - ihre Ansichten änderten, wenn sie mit einer KI konfrontiert wurden, die überzeugend gegen ihre Positionen argumentierte".

Sie schlagen vor, dass KI eingesetzt werden könnte, um Verschwörungstheorien zu bekämpfen und Fake News die in den sozialen Medien verbreitet werden, mit Fakten und gut begründeten Argumenten zu kontern.

Die Studie konzentrierte sich zwar auf Verschwörungstheorien, stellte aber auch fest: "Ohne geeignete Schutzmaßnahmen ist es jedoch durchaus möglich, dass solche Modelle auch Menschen davon überzeugen, epistemisch fragwürdige Überzeugungen anzunehmen - oder ganz allgemein als Mittel der Überzeugungsarbeit in großem Maßstab eingesetzt werden."

Mit anderen Worten: KI ist wirklich gut darin, Sie davon zu überzeugen, die Dinge zu glauben, zu denen sie Sie auffordert. Ein KI-Modell weiß auch nicht von sich aus, was "wahr" ist und was nicht. Es hängt von den Inhalten seiner Trainingsdaten ab.

Die Forscher erzielten ihre Ergebnisse mit GPT-4 Turbo, aber GPT-4o und die neuen o1-Modelle sind noch überzeugender und trügerischer.

Die Studie wurde von der John Templeton Foundation finanziert. Die Ironie dabei ist, dass die Templeton Freedom Awards von der Atlas Economic Research Foundation verwaltet werden. Diese Gruppe lehnt Maßnahmen gegen den Klimawandel ab und verteidigt die Tabakindustrie, von der sie auch finanziert wird.

KI-Modelle werden sehr überzeugend, und die Menschen, die entscheiden, was Wahrheit ist, haben die Macht.

Die gleichen KI-Modelle, die Sie davon überzeugen können, dass die Erde flach ist, könnten von Lobbyisten eingesetzt werden, um Sie davon zu überzeugen, dass Anti-Raucher-Gesetze schlecht sind und der Klimawandel nicht stattfindet.

Join The Future


HEUTE ABONNIEREN

Klar, prägnant, umfassend. Behalten Sie den Überblick über KI-Entwicklungen mit DailyAI

Eugene van der Watt

Eugene kommt aus der Elektronikbranche und liebt alles, was mit Technik zu tun hat. Wenn er eine Pause vom Konsum von KI-Nachrichten einlegt, findet man ihn am Snookertisch.

×

KOSTENLOSES PDF EXKLUSIV
Mit DailyAI immer einen Schritt voraus

Melden Sie sich für unseren wöchentlichen Newsletter an und erhalten Sie exklusiven Zugang zum neuesten eBook von DailyAI: 'Mastering AI Tools: Ihr Leitfaden für mehr Produktivität im Jahr 2024".

*Mit der Anmeldung zu unserem Newsletter akzeptieren Sie unsere Datenschutzbestimmungen und unsere Bedingungen und Konditionen