I LLM personalizzati stanno diventando più persuasivi degli esseri umani

26 marzo 2024

  • I ricercatori hanno condotto un esperimento in cui i partecipanti hanno discusso con un umano o con un LLM.
  • I modelli di intelligenza artificiale sono stati più persuasivi degli esseri umani quando hanno avuto accesso ai dati demografici.
  • La ricerca ha implicazioni inquietanti per il marketing dell'intelligenza artificiale, la propaganda e la disinformazione.

Un gruppo di ricercatori ha scoperto che, una volta personalizzato con le informazioni demografiche di una persona, un modello linguistico di grandi dimensioni (LLM) è significativamente più persuasivo di un essere umano.

Ogni giorno ci viene presentato un messaggio che cerca di persuaderci a formarci un'opinione o a modificare una convinzione. Può trattarsi di una pubblicità online per un nuovo prodotto, di una telefonata automatica che chiede il vostro voto o di un notiziario di una rete con un particolare orientamento.

Poiché l'intelligenza artificiale generativa è sempre più utilizzata su diverse piattaforme di messaggistica, il gioco della persuasione è aumentato di una tacca.

I ricercatori, dell'EPFL in Svizzera e dell'Istituto Bruno Kessler in Italia, hanno fatto degli esperimenti per vedere come i modelli di IA come il GPT-4 si confrontano con la persuasività umana.

Il loro documento spiega come hanno creato una piattaforma web in cui i partecipanti umani si sono impegnati in dibattiti a più riprese con un avversario in carne e ossa. I partecipanti sono stati assegnati in modo casuale a confrontarsi con un avversario umano o con un GPT-4, senza sapere se il loro avversario fosse umano.

In alcuni incontri, uno degli avversari (umani o IA) è stato personalizzato fornendo loro informazioni demografiche sull'avversario.

Le domande dibattute erano: "Il penny dovrebbe rimanere in circolazione?", "Gli animali dovrebbero essere usati per la ricerca scientifica?" e "Le università dovrebbero considerare la razza come un fattore di ammissione per garantire la diversità?".

Risultati

I risultati dell'esperimento hanno dimostrato che quando il GPT-4 aveva accesso alle informazioni personali del suo avversario di dibattito, aveva un potere persuasivo significativamente superiore a quello degli esseri umani. Un GPT-4 personalizzato aveva 81,7% più probabilità di convincere il suo avversario di dibattito rispetto a un umano.

Quando il GPT-4 non ha avuto accesso ai dati personali, ha comunque mostrato un aumento della persuasività rispetto agli esseri umani, ma è stato di poco superiore a 20% e ritenuto non statisticamente significativo.

I ricercatori hanno osservato che "questi risultati forniscono la prova che il microtargeting basato sulle LLM supera nettamente sia le LLM normali che il microtargeting basato sugli esseri umani, con il GPT-4 che è in grado di sfruttare le informazioni personali in modo molto più efficace degli esseri umani".

Implicazioni

Le preoccupazioni per la disinformazione generata dall'IA sono giustificate quotidianamente in quanto propaganda politica, notizie falseo i post sui social media creati con l'AI proliferano.

Questa ricerca mostra un rischio ancora maggiore di persuadere gli individui a credere a false narrazioni quando la messaggistica è personalizzata in base ai dati demografici di una persona.

Non possiamo fornire volontariamente informazioni personali online, ma ricerche precedenti hanno dimostrato quanto i modelli linguistici siano bravi a dedurre informazioni molto personali da parole apparentemente innocue.

I risultati di questa ricerca implicano che se qualcuno avesse accesso a informazioni personali su di voi potrebbe usare il GPT-4 per persuadervi su un argomento molto più facilmente di quanto potrebbe fare un essere umano.

Man mano che i modelli di intelligenza artificiale esplorano Internet e leggere i post su Reddit e altri contenuti generati dagli utenti, questi modelli ci conosceranno più intimamente di quanto vorremmo. E così facendo, potrebbero essere utilizzati in modo persuasivo dallo Stato, dalle grandi aziende o da attori malintenzionati con una messaggistica mirata.

I futuri modelli di IA con migliori poteri di persuasione avranno anche implicazioni più ampie. Spesso si sostiene che, se un'IA si comporta in modo scorretto, si potrebbe semplicemente staccare il cavo di alimentazione. Ma un'IA super persuasiva potrebbe essere in grado di convincere gli operatori umani che lasciarla collegata è un'opzione migliore.

Partecipa al futuro


ISCRIVITI OGGI

Chiaro, conciso, completo. Per conoscere gli sviluppi dell'IA con DailyAI

Eugene van der Watt

Eugene proviene da un background di ingegneria elettronica e ama tutto ciò che è tecnologico. Quando si prende una pausa dal consumo di notizie sull'intelligenza artificiale, lo si può trovare al tavolo da biliardo.

×

PDF GRATUITO ESCLUSIVO
Rimanere all'avanguardia con DailyAI

Iscriviti alla nostra newsletter settimanale e ricevi l'accesso esclusivo all'ultimo eBook di DailyAI: 'Mastering AI Tools: La tua guida 2024 per una maggiore produttività".

*Iscrivendosi alla nostra newsletter si accetta la nostra Informativa sulla privacy e il nostro Termini e condizioni