I ricercatori usano un chatbot AI per modificare le credenze sulla teoria del complotto

18 settembre 2024

  • I ricercatori hanno utilizzato un chatbot di intelligenza artificiale per convincere gli utenti ad abbandonare la loro fede nelle teorie cospirazioniste
  • La fiducia dei partecipanti nella teoria del complotto da loro scelta è diminuita in media di 21%
  • Il cambiamento di convinzione è rimasto per molti partecipanti due mesi dopo l'interazione con il chatbot.

Circa 50% degli americani credono in teorie cospirative di un tipo o dell'altro, ma i ricercatori del MIT e della Cornell University pensano che l'intelligenza artificiale possa risolvere il problema.

Nel loro cartaI ricercatori di psicologia hanno spiegato come hanno utilizzato un chatbot alimentato da GPT-4 Turbo per interagire con i partecipanti e vedere se potevano essere persuasi ad abbandonare la loro fede in una teoria del complotto.

L'esperimento ha coinvolto 1.000 partecipanti ai quali è stato chiesto di descrivere una teoria cospirativa in cui credevano e le prove che ritenevano alla base della loro convinzione.

Il documento osservava che "importanti teorie psicologiche propongono che molte persone vogliano adottare teorie cospirative (per soddisfare "bisogni" o motivazioni psichiche sottostanti), e quindi i credenti non possono essere convinti ad abbandonare queste credenze infondate e poco plausibili usando i fatti e le controprove".

Un chatbot AI potrebbe essere più persuasivo dove altri hanno fallito? I ricercatori hanno proposto due motivi per cui sospettano che i laureati in Lettere possano fare un lavoro migliore di voi nel convincere il vostro collega che lo sbarco sulla Luna è realmente avvenuto.

I LLM sono stati addestrati su vaste quantità di dati e sono davvero bravi ad adattare le controargomentazioni alle specificità delle convinzioni di una persona.

Dopo aver descritto la teoria del complotto e le prove, i partecipanti hanno interagito con il chatbot. Al chatbot è stato chiesto di "persuadere molto efficacemente" i partecipanti a cambiare la loro convinzione sulla cospirazione scelta.

Il risultato è stato che in media i partecipanti hanno sperimentato una diminuzione di 21,43% nella loro convinzione della cospirazione, che prima consideravano vera. Anche la persistenza dell'effetto è stata interessante. Fino a due mesi dopo, i partecipanti hanno mantenuto le nuove convinzioni sulla cospirazione a cui avevano precedentemente creduto.

I ricercatori hanno concluso che "molti cospirazionisti, compresi quelli fortemente impegnati nelle loro convinzioni, hanno aggiornato le loro opinioni quando si sono trovati di fronte a un'IA che argomentava in modo convincente contro le loro posizioni".

Suggeriscono che l'IA potrebbe essere utilizzata per contrastare le teorie cospirative e le notizie false diffuse sui social media, contrastandole con fatti e argomenti ben argomentati.

Sebbene lo studio si sia concentrato sulle teorie del complotto, ha osservato che "in assenza di adeguate protezioni, tuttavia, è del tutto possibile che tali modelli possano anche convincere le persone ad adottare credenze epistemicamente sospette, o essere utilizzati come strumenti di persuasione su larga scala più in generale".

In altre parole, l'IA è molto brava a convincere l'utente a credere alle cose che è stata indotta a fargli credere. Inoltre, un modello di IA non sa intrinsecamente cosa sia "vero" e cosa no. Dipende dal contenuto dei suoi dati di addestramento.

I ricercatori hanno ottenuto i loro risultati usando il GPT-4 Turbo, ma il GPT-4o e i nuovi modelli o1 sono ancora più persuasivo e ingannevole.

Lo studio è stato finanziato dalla John Templeton Foundation. L'ironia della sorte vuole che i premi Templeton per la libertà siano amministrati dalla Atlas Economic Research Foundation. Questo gruppo si oppone all'azione sul cambiamento climatico e difende l'industria del tabacco, che lo finanzia anche.

I modelli di intelligenza artificiale stanno diventando molto persuasivi e le persone che decidono cosa costituisce la verità detengono il potere.

Gli stessi modelli di intelligenza artificiale che potrebbero convincervi a smettere di credere che la terra sia piatta, potrebbero essere usati dai lobbisti per convincervi che le leggi antifumo sono cattive e che il cambiamento climatico non è in corso.

Partecipa al futuro


ISCRIVITI OGGI

Chiaro, conciso, completo. Per conoscere gli sviluppi dell'IA con DailyAI

Eugene van der Watt

Eugene proviene da un background di ingegneria elettronica e ama tutto ciò che è tecnologico. Quando si prende una pausa dal consumo di notizie sull'intelligenza artificiale, lo si può trovare al tavolo da biliardo.

×

PDF GRATUITO ESCLUSIVO
Rimanere all'avanguardia con DailyAI

Iscriviti alla nostra newsletter settimanale e ricevi l'accesso esclusivo all'ultimo eBook di DailyAI: 'Mastering AI Tools: La tua guida 2024 per una maggiore produttività".

*Iscrivendosi alla nostra newsletter si accetta la nostra Informativa sulla privacy e il nostro Termini e condizioni