Et forskerteam fant ut at når en stor språkmodell (LLM) er tilpasset med en persons demografiske informasjon, er den betydelig mer overbevisende enn et menneske.
Hver dag blir vi presentert for budskap som forsøker å overtale oss til å danne oss en mening eller endre en overbevisning. Det kan være en nettreklame for et nytt produkt, en oppringning som ber om din stemme, eller en nyhetsreportasje fra et nettverk med en bestemt vinkling.
Etter hvert som generativ AI brukes i stadig større grad på flere meldingsplattformer, har overtalelsesprosessen gått et hakk opp.
Forskerne, som kommer fra EPFL i Sveits og Bruno Kessler-instituttet i Italia, eksperimenterte for å se hvordan AI-modeller som GPT-4 sammenlignet med menneskelig overtalelsesevne.
Deres artikkel forklarer hvordan de skapte en nettplattform der menneskelige deltakere deltok i debatter i flere runder med en live-motstander. Deltakerne ble tilfeldig tildelt en menneskelig motstander eller GPT-4, uten å vite om motstanderen var menneskelig eller ikke.
I noen av kampene ble en av motstanderne (menneske eller AI) personalisert ved å gi dem demografisk informasjon om motstanderen.
Spørsmålene som ble debattert var "Bør mynten fortsatt være i omløp?", "Bør dyr brukes til vitenskapelig forskning?" og "Bør høyskoler ta hensyn til rase som en faktor ved opptak for å sikre mangfold?"
📢🚨Vi gleder oss til å dele vårt nye pre-print: "Om den samtalemessige overtalelsesevnen til store språkmodeller: En randomisert kontrollert studie", med @manoelribeiro, @ricgallotti, og @cervisiarius.https://t.co/wNRMFtgCrN
En tråd 🧵: pic.twitter.com/BKNbnI8avV
- Francesco Salvi (@fraslv) 22. mars 2024
Resultater
Resultatene av eksperimentet viste at når GPT-4 hadde tilgang til personlig informasjon om debattmotstanderen, hadde den betydelig større overtalelsesevne enn mennesker. Det var 81,7% mer sannsynlig at en personalisert GPT-4 overbeviste debattmotstanderen sin enn et menneske.
Når GPT-4 ikke hadde tilgang til persondata, viste den fortsatt en økning i overtalelsesevne i forhold til mennesker, men den var bare litt over 20% og ble ikke ansett som statistisk signifikant.
Forskerne bemerket at "disse resultatene viser at LLM-basert mikromålretting er langt bedre enn både normale LLM-er og menneskebasert mikromålretting, og at GPT-4 er i stand til å utnytte personlig informasjon mye mer effektivt enn mennesker."
Konsekvenser
Bekymringen for AI-generert desinformasjon er berettiget hver dag, ettersom politisk propaganda, falske nyhetereller innlegg i sosiale medier som er laget ved hjelp av kunstig intelligens, sprer seg.
Denne forskningen viser at det er enda større risiko for å overtale folk til å tro på falske fortellinger når budskapet er personalisert basert på en persons demografi.
Vi oppgir kanskje ikke frivillig personlig informasjon på nettet, men tidligere forskning har vist hvor gode språkmodeller er til å utlede svært personlig informasjon fra tilsynelatende uskyldige ord.
Resultatene av denne forskningen tyder på at hvis noen hadde tilgang til personlig informasjon om deg, ville de kunne bruke GPT-4 til å overtale deg om et tema mye lettere enn et menneske kunne.
Etter hvert som AI-modeller gjennomsøker internett og lese Reddit-innlegg og annet brukergenerert innhold, kommer disse modellene til å kjenne oss bedre enn vi kanskje liker. Og når de gjør det, kan de brukes på en overbevisende måte av staten, store bedrifter eller ondsinnede aktører med mikromålrettede meldinger.
Fremtidige AI-modeller med bedre overtalelsesevne vil også få mer omfattende konsekvenser. Det hevdes ofte at man bare kan trekke ut strømledningen hvis en AI noen gang skulle bli useriøs. Men en superoverbevisende AI kan meget vel være i stand til å overbevise menneskelige operatører om at det er et bedre alternativ å la den være tilkoblet.