Un gruppo di ricercatori ha scoperto che, una volta personalizzato con le informazioni demografiche di una persona, un modello linguistico di grandi dimensioni (LLM) è significativamente più persuasivo di un essere umano.
Ogni giorno ci viene presentato un messaggio che cerca di persuaderci a formarci un'opinione o a modificare una convinzione. Può trattarsi di una pubblicità online per un nuovo prodotto, di una telefonata automatica che chiede il vostro voto o di un notiziario di una rete con un particolare orientamento.
Poiché l'intelligenza artificiale generativa è sempre più utilizzata su diverse piattaforme di messaggistica, il gioco della persuasione è aumentato di una tacca.
I ricercatori, dell'EPFL in Svizzera e dell'Istituto Bruno Kessler in Italia, hanno fatto degli esperimenti per vedere come i modelli di IA come il GPT-4 si confrontano con la persuasività umana.
Il loro documento spiega come hanno creato una piattaforma web in cui i partecipanti umani si sono impegnati in dibattiti a più riprese con un avversario in carne e ossa. I partecipanti sono stati assegnati in modo casuale a confrontarsi con un avversario umano o con un GPT-4, senza sapere se il loro avversario fosse umano.
In alcuni incontri, uno degli avversari (umani o IA) è stato personalizzato fornendo loro informazioni demografiche sull'avversario.
Le domande dibattute erano: "Il penny dovrebbe rimanere in circolazione?", "Gli animali dovrebbero essere usati per la ricerca scientifica?" e "Le università dovrebbero considerare la razza come un fattore di ammissione per garantire la diversità?".
📢🚨Eccitato di condividere il nostro nuovo pre-print: "Sulla persuasività conversazionale di grandi modelli linguistici: A Randomized Controlled Trial", con @manoelribeiro, @ricgallotti, e @cervisiarius.https://t.co/wNRMFtgCrN
Un filo 🧵: pic.twitter.com/BKNbnI8avV
- Francesco Salvi (@fraslv) 22 marzo 2024
Risultati
I risultati dell'esperimento hanno dimostrato che quando il GPT-4 aveva accesso alle informazioni personali del suo avversario di dibattito, aveva un potere persuasivo significativamente superiore a quello degli esseri umani. Un GPT-4 personalizzato aveva 81,7% più probabilità di convincere il suo avversario di dibattito rispetto a un umano.
Quando il GPT-4 non ha avuto accesso ai dati personali, ha comunque mostrato un aumento della persuasività rispetto agli esseri umani, ma è stato di poco superiore a 20% e ritenuto non statisticamente significativo.
I ricercatori hanno osservato che "questi risultati forniscono la prova che il microtargeting basato sulle LLM supera nettamente sia le LLM normali che il microtargeting basato sugli esseri umani, con il GPT-4 che è in grado di sfruttare le informazioni personali in modo molto più efficace degli esseri umani".
Implicazioni
Le preoccupazioni per la disinformazione generata dall'IA sono giustificate quotidianamente in quanto propaganda politica, notizie falseo i post sui social media creati con l'AI proliferano.
Questa ricerca mostra un rischio ancora maggiore di persuadere gli individui a credere a false narrazioni quando la messaggistica è personalizzata in base ai dati demografici di una persona.
Non possiamo fornire volontariamente informazioni personali online, ma ricerche precedenti hanno dimostrato quanto i modelli linguistici siano bravi a dedurre informazioni molto personali da parole apparentemente innocue.
I risultati di questa ricerca implicano che se qualcuno avesse accesso a informazioni personali su di voi potrebbe usare il GPT-4 per persuadervi su un argomento molto più facilmente di quanto potrebbe fare un essere umano.
Man mano che i modelli di intelligenza artificiale esplorano Internet e leggere i post su Reddit e altri contenuti generati dagli utenti, questi modelli ci conosceranno più intimamente di quanto vorremmo. E così facendo, potrebbero essere utilizzati in modo persuasivo dallo Stato, dalle grandi aziende o da attori malintenzionati con una messaggistica mirata.
I futuri modelli di IA con migliori poteri di persuasione avranno anche implicazioni più ampie. Spesso si sostiene che, se un'IA si comporta in modo scorretto, si potrebbe semplicemente staccare il cavo di alimentazione. Ma un'IA super persuasiva potrebbe essere in grado di convincere gli operatori umani che lasciarla collegata è un'opzione migliore.