Forskere fra universitetet i Würzburg og Max-Planck-instituttet for menneskelig utvikling har trent opp en AI-modell til å oppdage løgner, og det kan endre måten vi omgås hverandre på.
Mennesker er ikke gode til å avgjøre om en person lyver eller snakker sant. Eksperimenter viser at treffprosenten vår i beste fall ligger på rundt 50%, og denne dårlige prestasjonen dikterer hvordan vi kommuniserer med hverandre.
Sannhetsteorien (TDT) sier at folk vanligvis vil anta at det en person forteller dem, er sant. Den sosiale kostnaden ved å kalle personen en løgner er for stor med vår 50/50 evne til å oppdage løgner, og faktasjekk er ikke alltid praktisk i øyeblikket.
Løgndetektorer og annen løgndetektorteknologi kan plukke opp data som stressindikatorer og øyebevegelser, men det er lite sannsynlig at du kommer til å bruke en av disse i din neste samtale. Kan kunstig intelligens hjelpe?
Avisen forklarer hvordan forskerteamet lærte opp Googles BERT LLM til å oppdage når folk lyver.
Forskerne rekrutterte 986 deltakere og ba dem beskrive sine planer for helgen, med en oppfølgende forklaring som underbygget sannhetsgehalten i utsagnet.
Deretter ble de presentert for en annen deltakers planer for helgen og bedt om å skrive en falsk støtteerklæring der de hevdet at dette faktisk var deres egne planer for helgen.
BERT ble trent opp på 80% av de 1536 utsagnene og fikk deretter i oppgave å vurdere sannhetsgehalten i resten av utsagnene.
Modellen klarte å merke et utsagn som sant eller usant med en nøyaktighet på 66,86%, noe som var betydelig bedre enn de menneskelige dommerne, som oppnådde en nøyaktighet på 46,47% i videre eksperimenter.
Ville du brukt en AI-løgndetektor?
Forskerne fant ut at bare en tredjedel av deltakerne valgte å takke ja til tilbudet om å bruke AI-modellen for løgndeteksjon.
De som valgte å bruke algoritmen, fulgte nesten alltid algoritmens prediksjon ved å akseptere utsagnet som sant eller komme med en anklage om løgn.
Deltakere som ba om algoritmiske prediksjoner, viste en beskyldningsrate på nesten 85% når den antydet at utsagnet var falskt. Utgangspunktet for dem som ikke ba om maskinprediksjoner, var 19,71%.
Folk som er åpne for ideen om en AI-løgndetektor, er mer tilbøyelige til å si at det er tull når de ser det røde lyset blinke.
Forskerne foreslår at "En plausibel forklaring er at en tilgjengelig løgndeteksjonsalgoritme gir mulighet til å overføre ansvaret for beskyldninger fra en selv til det maskinlærende systemet."
"Det er ikke jeg som kaller deg en løgner, det er maskinen.
Dette forandrer alt
Hva ville skje i samfunnet vårt hvis det var fire ganger mer sannsynlig at folk begynte å kalle hverandre for løgnere?
Forskerne konkluderte med at hvis folk stolte på at kunstig intelligens skulle være sannhetsformidleren, kunne det ha et sterkt forstyrrende potensial.
I artikkelen heter det at "høye anklagerater kan belaste samfunnsstrukturen vår ved å skape generell mistillit og ytterligere øke polariseringen mellom grupper som allerede har vanskelig for å stole på hverandre".
En nøyaktig AI-løgndetektor vil også ha positive effekter. Den kan identifisere AI-generert desinformasjon og falske nyheter, hjelpe til i forretningsforhandlinger eller bekjempe forsikringssvindel.
Hva med etikken i bruken av et slikt verktøy? Kan grenseagenter bruke det til å avdekke om en migrants asylsøknad er sann eller oppdiktet?
Mer avanserte modeller enn BERT vil sannsynligvis bidra til at AIs løgndeteksjon blir så nøyaktig at det blir altfor lett å oppdage menneskelige forsøk på bedrag.
Forskerne konkluderte med at deres "forskning understreker det presserende behovet for et omfattende politisk rammeverk for å håndtere effekten av AI-drevne løgndeteksjonsalgoritmer".