Forskere fra University of Würzburg og Max-Planck Institute for Human Development har trænet en AI-model til at opdage løgne, og det kan ændre den måde, vi omgås hinanden på.
Mennesker er ikke gode til at se, om en person lyver eller taler sandt. Eksperimenter viser, at vores hitrate i bedste fald er omkring 50%, og denne dårlige præstation dikterer, hvordan vi interagerer med hinanden.
The truth-default theory (TDT) siger, at folk typisk vil antage, at det, en person fortæller dem, er sandt. De sociale omkostninger ved at kalde personen en løgner er for stor en risiko med vores 50/50 evne til at opdage løgne, og faktatjek er ikke altid praktisk i øjeblikket.
Polygrafer og anden løgnedetekterende teknologi kan opfange data som stressindikatorer og øjenbevægelser, men det er ikke sandsynligt, at du vil bruge en af disse i din næste samtale. Kan AI hjælpe?
Avisen forklarer, hvordan forskerholdet trænede Googles BERT LLM til at opdage, når folk løj.
Forskerne rekrutterede 986 deltagere og bad dem om at beskrive deres weekendplaner med en opfølgende forklaring, der understøttede sandhedsværdien af deres udsagn.
Derefter blev de præsenteret for en anden deltagers weekendplaner og bedt om at skrive en falsk støtteerklæring, hvor de argumenterede for, at det faktisk var deres planer for weekenden.
BERT blev trænet på 80% af de 1.536 udsagn og fik derefter til opgave at evaluere sandfærdigheden af resten af udsagnene.
Modellen var i stand til at mærke et udsagn som sandt eller falsk med en nøjagtighed på 66,86%, hvilket er betydeligt bedre end de menneskelige dommere, der opnåede en nøjagtighed på 46,47% i yderligere eksperimenter.
Ville du bruge en AI-løgnedetektor?
Forskerne fandt ud af, at når deltagerne blev præsenteret for muligheden for at bruge AI-løgnedetekteringsmodellen, var det kun en tredjedel, der besluttede sig for at tage imod tilbuddet.
De, der valgte at bruge algoritmen, fulgte næsten altid den algoritmiske forudsigelse ved at acceptere udsagnet som sandt eller komme med en anklage om løgn.
Deltagere, der søgte algoritmiske forudsigelser, viste beskyldningsrater på næsten 85%, når det antydede, at udsagnet var falsk. Baseline for dem, der ikke bad om maskinelle forudsigelser, var 19,71%.
Folk, der er åbne over for ideen om en AI-løgnedetektor, er mere tilbøjelige til at kalde det BS, når de ser den røde lampe blinke.
Forskerne foreslår, at "En plausibel forklaring er, at en tilgængelig løgndetekteringsalgoritme giver mulighed for at overføre ansvaret for beskyldninger fra en selv til det maskinlærende system."
"Det er ikke mig, der kalder dig en løgner, det er maskinen.
Dette ændrer alt
Hvad ville der ske i vores samfund, hvis folk var fire gange mere tilbøjelige til at kalde hinanden løgnere?
Forskerne konkluderede, at hvis folk stolede på, at kunstig intelligens ville være sandhedens dommer, kunne det have et stærkt forstyrrende potentiale.
Avisen bemærkede, at "høje beskyldningsrater kan belaste vores sociale struktur ved at fremme generel mistillid og yderligere øge polariseringen mellem grupper, der allerede har svært ved at stole på hinanden."
En nøjagtig AI-løgnedetektor ville også have positive konsekvenser. Den kunne identificere AI-genereret misinformation og falske nyheder, hjælpe i forretningsforhandlinger eller bekæmpe forsikringssvindel.
Hvad med etikken i at bruge et værktøj som dette? Kunne grænseagenter bruge det til at opdage, om en migrants asylansøgning var sand eller et opportunistisk påfund?
Mere avancerede modeller end BERT vil sandsynligvis skubbe AI's løgndetektering til et punkt, hvor menneskelige forsøg på bedrag bliver alt for lette at få øje på.
Forskerne konkluderede, at deres "forskning understreger det presserende behov for en omfattende politisk ramme for at håndtere virkningen af AI-drevne løgnedetekteringsalgoritmer."