Ökningen av "liar's dividend" när AI-djupa förfalskningar fortsätter att besvära

23 januari 2024

Liar's utdelning AI

I takt med att vi närmar oss avgörande val i år - inte minst det amerikanska valet - bevittnar vi den onda tvillingen till djupt falsk desinformation - "liar's dividend". 

Deep fakes avser otroligt verklighetstrogna AI-genererade kopior av ljud, video eller bilder.

Det finns många exempel på att djupa förfalskningar har påverkat människor och samhället, från en AI-genererad bild av Pentagon som påtagligt som påverkade aktiemarknaden förra året till en robocall-röst härmade president Biden denna vecka.

Men djupa förfalskningar är inte bara användbara för att förvränga sanningen - de är också utmärkta för att motbevisa den. Detta har kallats "lögnens utdelning", vilket i huvudsak beskriver de fördelar som någon får av att märka autentiskt innehåll som falskt. 

Till exempel, som svar på en Fox News-annons som visar sina offentliga misstag förra året, hävdade den tidigare presidenten Donald Trump att filmen var AI-skapad

Han fördömde annonsen i ett inlägg på Truth Social och sa: "De perversa och förlorarna på det misslyckade och en gång upplösta Lincoln-projektet, och andra, använder AI i sina falska tv-reklamfilmer för att få mig att se lika dålig och patetisk ut som Crooked Joe Biden, inte en lätt sak att göra." 

The Lincoln Project tillbakavisade sedan Trumps påstående och påpekade att annonsen innehöll väldokumenterade incidenter från hans presidentskap.

Libby Lange, analytiker på analysleverantören Graphika, upprepar oron för liar's dividend och säger: "AI destabiliserar själva sanningsbegreppet. Om allt kan vara falskt, och om alla hävdar att allt är falskt eller manipulerat på något sätt, finns det egentligen ingen känsla av grundläggande sanning."

Globalt sett använder politiker nu regelbundet AI som syndabock. Till exempel avfärdades en kontroversiell video av en taiwanesisk politiker som antyder en utomäktenskaplig affär snabbt som potentiellt AI-genererad. 

På liknande sätt har en politiker i den indiska delstaten Tamil Nadu tillbakavisat en läckt ljudinspelning som "maskingenererad", även om dess äkthet fortfarande är osäker.

Vi har också sett AI-bilder av krigsförbrytelser i Israel, Palestina och Ukraina, till exempel en bränd bebis som Ben Shapiro delade med miljontals följare innan den blev diskrediterad som falsk

Det har också förekommit icke-politiska exempel, som ett röstklipp som påstås komma från en rektor i Baltimore County som uttalar sig rasistiskt. Dessa påstods vara AI-genererade, men att bekräfta det utan ytterligare sammanhang är utmanande. 

Djupa förfalskningar var ett hett ämne vid den senaste Världsekonomiskt forum i Davosmen insatserna för att stävja dem har hittills varit ytliga och ineffektiva. Teknikföretag utforskar sätt att automatiskt verifiera AI-genererat innehåll, men endast experter kan på ett tillförlitligt sätt skilja äkta från falska medier. 

Och även experterna gör fel, eftersom det finns fall där specialiserade AI-detektorer kommer fram till omstridda slutsatser om en bilds äkthet. 

Om vi sedan antar att bilderna "officiellt" klassificeras som äkta eller falska, men att domslutet är felaktigt - då kan du bara föreställa dig vilket helvete som kan bryta ut. 

Bli en del av framtiden


PRENUMERERA IDAG

Tydlig, kortfattad och heltäckande. Få grepp om AI-utvecklingen med DagligaAI

Sam Jeans

Sam är en vetenskaps- och teknikskribent som har arbetat i olika AI-startups. När han inte skriver läser han medicinska tidskrifter eller gräver igenom lådor med vinylskivor.

×

GRATIS PDF EXKLUSIV
Ligg steget före med DailyAI

Registrera dig för vårt veckovisa nyhetsbrev och få exklusiv tillgång till DailyAI:s senaste e-bok: "Mastering AI Tools: Din 2024-guide till förbättrad produktivitet".

*Genom att prenumerera på vårt nyhetsbrev accepterar du vår Integritetspolicy och våra Villkor och anvisningar