Fremveksten av "løgnerens utbytte" som AI-dype forfalskninger fortsetter å skape problemer

23. januar 2024

Løgnerens utbytte AI

Mens vi nærmer oss viktige valg i år - ikke minst det amerikanske valget - er vi vitne til den onde tvillingen til dyp falsk feilinformasjon - "løgnerens utbytte". 

Deep fakes er utrolig naturtro AI-genererte kopier av lyd, video eller bilder.

Det har vært mange eksempler på at deep fakes har påvirket mennesker og samfunn, fra et AI-generert bilde av Pentagon som var håndgripelig som påvirket aksjemarkedet i fjor til en robocall-stemme etterligner president Biden denne uken.

Men dype forfalskninger er ikke bare nyttige for å forvrenge sannheten - de er også ypperlige til å motbevise den. Dette har blitt kalt "løgnerens utbytte", og beskriver i hovedsak fordelene noen oppnår ved å stemple autentisk innhold som falskt. 

Som svar på en Fox News-reklame som viste hans offentlige tabber i fjor, hevdet for eksempel tidligere president Donald Trump at opptakene var AI-skapt

Han fordømte reklamen i et innlegg på Truth Social, der han skrev: "De perverse og taperne i det mislykkede og en gang oppløste Lincoln-prosjektet, og andre, bruker AI i sine falske TV-reklamer for å få meg til å se like dårlig og patetisk ut som Crooked Joe Biden, og det er ikke en lett ting å gjøre." 

Lincoln Project tilbakeviste deretter Trumps påstand, og påpekte at annonsen inneholdt veldokumenterte hendelser fra hans presidentperiode.

Libby Lange, analytiker ved analyseleverandøren Graphika, er enig i bekymringen for løgnens utbytte, og sier: "AI destabiliserer selve sannhetsbegrepet. Hvis alt kan være falskt, og hvis alle påstår at alt er falskt eller manipulert på en eller annen måte, finnes det egentlig ingen grunnleggende sannhet."

Globalt bruker politikere nå regelmessig kunstig intelligens som syndebukk. For eksempel ble en kontroversiell video av en taiwansk politiker som antydet en utenomekteskapelig affære, raskt avfeid som potensielt AI-generert. 

I den indiske delstaten Tamil Nadu tilbakeviste en politiker et lekket lydopptak som "maskingenerert", selv om det fortsatt er usikkert om det er ekte.

Vi har også sett AI-bilder av krigsforbrytelser i Israel, Palestina og Ukraina, som for eksempel et brent spedbarn, som Ben Shapiro delte med millioner av følgere før det ble diskreditert som falsk

Det har også vært ikke-politiske eksempler, som et stemmeklipp som angivelig stammer fra en rektor ved en skole i Baltimore County som kommer med rasistiske bemerkninger. Disse ble hevdet å være AI-genererte, men det er utfordrende å bekrefte dette uten ytterligere kontekst. 

Deep fakes var et hett tema på den nylig avholdte Verdens økonomiske forum i Davosmen innsatsen for å begrense dem har så langt vært overfladisk og ineffektiv. Teknologiselskaper utforsker måter å automatisk verifisere AI-generert innhold på, men det er bare eksperter som kan skille ekte fra falske medier på en pålitelig måte. 

Og selv ekspertene tar feil, for det finnes tilfeller der spesialiserte AI-detektorer kommer til omstridte konklusjoner om et bildes autentisitet. 

Sett at bildene "offisielt" klassifiseres som ekte eller falske, men at dommen er feil - da kan du bare forestille deg hvilket helvete som kan bryte ut. 

Bli med i fremtiden


ABONNER I DAG

Tydelig, kortfattet og omfattende. Få et grep om AI-utviklingen med DagligAI

Sam Jeans

Sam er en vitenskaps- og teknologiskribent som har jobbet i ulike oppstartsbedrifter innen kunstig intelligens. Når han ikke skriver, leser han medisinske tidsskrifter eller graver seg gjennom esker med vinylplater.

×

GRATIS PDF EKSKLUSIV
Hold deg i forkant med DailyAI

Meld deg på vårt ukentlige nyhetsbrev og få eksklusiv tilgang til DailyAIs nyeste e-bok: "Mastering AI Tools: Din 2024-guide til økt produktivitet".

*Ved å abonnere på vårt nyhetsbrev aksepterer du vår Retningslinjer for personvern og vår Vilkår og betingelser