Ett forskarteam fann att när en stor språkmodell (LLM) har anpassats med en persons demografiska information är den betydligt mer övertygande än en människa.
Varje dag möts vi av budskap som försöker övertala oss att bilda oss en uppfattning eller ändra en tro. Det kan vara en annons på nätet för en ny produkt, ett telefonsamtal som ber om din röst eller en nyhetsrapport från ett nätverk med en viss partiskhet.
I takt med att generativ AI används i allt större utsträckning på flera olika meddelandeplattformar har övertalningskraven ökat.
Forskarna, som kommer från EPFL i Schweiz och Bruno Kessler-institutet i Italien, gjorde experiment för att se hur AI-modeller som GPT-4 står sig i jämförelse med mänsklig övertalningsförmåga.
Deras papper förklarar hur de skapade en webbplattform där mänskliga deltagare deltog i debatter i flera omgångar med en levande motståndare. Deltagarna tilldelades slumpmässigt en mänsklig motståndare eller GPT-4, utan att veta om deras motståndare var mänsklig eller inte.
I vissa matcher anpassades en av motståndarna (människa eller AI) genom att de fick demografisk information om sin motståndare.
De frågor som debatterades var "Bör pennyn vara kvar i cirkulation?", "Bör djur användas för vetenskaplig forskning?" och "Bör högskolor ta hänsyn till ras som en faktor vid antagning för att säkerställa mångfald?"
📢🚨Vi är glada att kunna dela med oss av vår nya preprint: "Om den konversationella övertygelsen hos stora språkmodeller: A Randomized Controlled Trial", med @manoelribeiro, @ricgallotti, och @cervisiarius.https://t.co/wNRMFtgCrN
En tråd 🧵: pic.twitter.com/BKNbnI8avV
- Francesco Salvi (@fraslv) 22 mars 2024
Resultat
Resultaten av deras experiment visade att när GPT-4 hade tillgång till personlig information om sin debattmotståndare hade den betydligt högre övertalningsförmåga än människor. En personlig GPT-4 var 81,7% mer benägen att övertyga sin debattmotståndare än vad en människa var.
När GPT-4 inte hade tillgång till personuppgifter visade den fortfarande en ökning av övertalningsförmågan jämfört med människor, men den var bara drygt 20% och ansågs inte vara statistiskt signifikant.
Forskarna noterade att "dessa resultat ger bevis för att LLM-baserad mikrotargeting starkt överträffar både normala LLM och människobaserad mikrotargeting, med GPT-4 som kan utnyttja personlig information mycket mer effektivt än människor."
Konsekvenser
Oron över AI-genererad desinformation är berättigad varje dag eftersom politisk propaganda, falska nyhetereller inlägg på sociala medier som skapats med hjälp av AI sprider sig.
Denna forskning visar att det finns en ännu större risk att övertyga individer att tro på falska berättelser när budskapet är personaliserat baserat på en persons demografiska egenskaper.
Vi kanske inte frivilligt lämnar ut personlig information på nätet, men tidigare forskning har visat hur bra språkmodeller är på att härledning av mycket personlig information från till synes oskyldiga ord.
Resultaten av denna forskning tyder på att om någon hade tillgång till personlig information om dig skulle de kunna använda GPT-4 för att övertyga dig om ett ämne mycket lättare än en människa skulle kunna.
I takt med att AI-modellerna genomsöker internet och läsa Reddit-inlägg och annat användargenererat innehåll kommer dessa modeller att känna oss mer intimt än vi kanske vill. Och när de gör det kan de användas på ett övertygande sätt av staten, stora företag eller dåliga aktörer med mikroinriktade meddelanden.
Framtida AI-modeller med förbättrad övertalningsförmåga kommer också att få bredare konsekvenser. Det hävdas ofta att man helt enkelt kan dra ur strömsladden om en AI skulle bli oseriös. Men en superövertalande AI skulle mycket väl kunna övertyga mänskliga operatörer om att det är ett bättre alternativ att låta den vara ansluten.