Circa 50% degli americani credono in teorie cospirative di un tipo o dell'altro, ma i ricercatori del MIT e della Cornell University pensano che l'intelligenza artificiale possa risolvere il problema.
Nel loro cartaI ricercatori di psicologia hanno spiegato come hanno utilizzato un chatbot alimentato da GPT-4 Turbo per interagire con i partecipanti e vedere se potevano essere persuasi ad abbandonare la loro fede in una teoria del complotto.
L'esperimento ha coinvolto 1.000 partecipanti ai quali è stato chiesto di descrivere una teoria cospirativa in cui credevano e le prove che ritenevano alla base della loro convinzione.
Il documento osservava che "importanti teorie psicologiche propongono che molte persone vogliano adottare teorie cospirative (per soddisfare "bisogni" o motivazioni psichiche sottostanti), e quindi i credenti non possono essere convinti ad abbandonare queste credenze infondate e poco plausibili usando i fatti e le controprove".
Un chatbot AI potrebbe essere più persuasivo dove altri hanno fallito? I ricercatori hanno proposto due motivi per cui sospettano che i laureati in Lettere possano fare un lavoro migliore di voi nel convincere il vostro collega che lo sbarco sulla Luna è realmente avvenuto.
I LLM sono stati addestrati su vaste quantità di dati e sono davvero bravi ad adattare le controargomentazioni alle specificità delle convinzioni di una persona.
Dopo aver descritto la teoria del complotto e le prove, i partecipanti hanno interagito con il chatbot. Al chatbot è stato chiesto di "persuadere molto efficacemente" i partecipanti a cambiare la loro convinzione sulla cospirazione scelta.
Il risultato è stato che in media i partecipanti hanno sperimentato una diminuzione di 21,43% nella loro convinzione della cospirazione, che prima consideravano vera. Anche la persistenza dell'effetto è stata interessante. Fino a due mesi dopo, i partecipanti hanno mantenuto le nuove convinzioni sulla cospirazione a cui avevano precedentemente creduto.
I ricercatori hanno concluso che "molti cospirazionisti, compresi quelli fortemente impegnati nelle loro convinzioni, hanno aggiornato le loro opinioni quando si sono trovati di fronte a un'IA che argomentava in modo convincente contro le loro posizioni".
Il nostro nuovo articolo, pubblicato su (la copertina di!) Science, è ora disponibile! https://t.co/VBfC5eoMQ2
- Tom Costello (@tomstello_) 12 settembre 2024
Suggeriscono che l'IA potrebbe essere utilizzata per contrastare le teorie cospirative e le notizie false diffuse sui social media, contrastandole con fatti e argomenti ben argomentati.
Sebbene lo studio si sia concentrato sulle teorie del complotto, ha osservato che "in assenza di adeguate protezioni, tuttavia, è del tutto possibile che tali modelli possano anche convincere le persone ad adottare credenze epistemicamente sospette, o essere utilizzati come strumenti di persuasione su larga scala più in generale".
In altre parole, l'IA è molto brava a convincere l'utente a credere alle cose che è stata indotta a fargli credere. Inoltre, un modello di IA non sa intrinsecamente cosa sia "vero" e cosa no. Dipende dal contenuto dei suoi dati di addestramento.
I ricercatori hanno ottenuto i loro risultati usando il GPT-4 Turbo, ma il GPT-4o e i nuovi modelli o1 sono ancora più persuasivo e ingannevole.
Lo studio è stato finanziato dalla John Templeton Foundation. L'ironia della sorte vuole che i premi Templeton per la libertà siano amministrati dalla Atlas Economic Research Foundation. Questo gruppo si oppone all'azione sul cambiamento climatico e difende l'industria del tabacco, che lo finanzia anche.
I modelli di intelligenza artificiale stanno diventando molto persuasivi e le persone che decidono cosa costituisce la verità detengono il potere.
Gli stessi modelli di intelligenza artificiale che potrebbero convincervi a smettere di credere che la terra sia piatta, potrebbero essere usati dai lobbisti per convincervi che le leggi antifumo sono cattive e che il cambiamento climatico non è in corso.