2023 har vært vitne til en flom av falske bilder skapt med AI-bildegeneratorer, fra et falskt bilde av en eksplosjon i Pentagon til bilder av barnemishandling.
Deep fake-teknologien genererer også robuste kopier av praktisk talt alle stemmer, fra Johnny Cash synger Barbie Girl til falske taler fra tidligere president i Sudan Omar al-Bashir.
Det er derfor kanskje ikke overraskende at det har oppstått en rekke forfalskninger i det allerede sprengte digitale landskapet rundt den pågående Israel-Hamas-konflikten.
Analytikere mener at AI-falsk informasjon har vært begrenset - det er nok ekte, visceralt innhold i omløp på sosiale medier. Men bare utsiktene til AI-genererte forfalskninger har fått folk til å stille spørsmål ved legitimiteten til autentiske bilder, videoer og lydklipp.
Dette kalles "løgnerens utbytte". Ekte innhold kan nå potensielt avfeies som AI-generert, noe som gjør det falskt i tilskuernes øyne.
Sosiale medier skaper den perfekte arenaen for at mistenksomhet og paranoia rundt digitalt innhold kan spre seg som ild i tørt gress - muligheten til å stemple noe som virker ekte som falskt, og omvendt, er noe mange vil bruke til å forsterke sine synspunkter.
Bill Marcellino fra RAND Corporation understreker dette dilemmaet: "Hva skjer når bokstavelig talt alt du ser som er digitalt, kan være syntetisk?"
Hany Farid, spesialist på digital kriminalteknikk og kunstig intelligens, kommenterte Israel-Hamas-konflikten på følgende måte: "Selv med de tåkekrigsstandardene vi er vant til, er denne konflikten spesielt rotete ... Spøkelset med deepfakes er mye, mye viktigere nå - det trengs ikke titusener, det trengs bare noen få, og så forgifter du brønnen, og alt blir mistenkelig."
Det som er bemerkelsesverdig, er hvor raskt deep fake-teknologien har utviklet seg. I 2022 var det enkelt og intuitivt å identifisere uoverensstemmelser i AI-genererte bilder, mens det i dag ofte krever spesialisert analyse.
Etter hvert som de følelsesladede diskusjonene om Gaza fortsetter, særlig på sosiale medier, blir svekkelsen av tilliten stadig tydeligere.
Falsk innhold skaper kontroverser og dermed eksponering
Problemet med tvilsomt falskt innhold er at det skaper debatt, og i sin tur inntrykk, likes og kommentarer
Et innlegg på X, som ble sett 1,8 millioner ganger, ga for eksempel et feilaktig bilde av Atletico Madrid-fans som viser et enormt palestinsk flagg. Brukere påpekte de forvrengte figurene i bildet, noe som indikerer AI-generering.
Et annet innlegg fra en Hamas-tilknyttet konto på plattform X, som New York Times rapporterte om, ga et unøyaktig bilde av en teltleir for fordrevne israelere, med feil flaggdesign. Dette innlegget ble senere fjernet.
Oppmerksomheten og granskningen ble i større grad rettet mot opptak uten tydelige tegn på AI-manipulasjon. Eksempler på dette er en video av en sykehusdirektør i Gaza som holder en pressekonferanse, som noen stemplet som "AI-generert" til tross for at flere kilder fanget opp hendelsen fra ulike vinkler.
I et forsøk på å skille sannheten fra AI-generert innhold har noen brukere av sosiale medier vendt seg til deteksjonsverktøy. Disse verktøyene hevder å kunne identifisere digital manipulasjon, men har vist seg å være inkonsekvente og upålitelige.
I konfliktens første dager delte statsminister Netanyahu en serie bilder på plattform X, der han hevdet at de viste "forferdelige bilder av babyer som ble myrdet og brent" av Hamas.
Da den konservative kommentatoren Ben Shapiro gjorde oppmerksom på et av bildene på plattform X, ble han utsatt for omfattende beskyldninger om å spre AI-generert innhold. Vi vil ikke legge inn tweeten direkte på grunn av bildets forferdelige natur, men du kan se debatt om Shapiros innlegg her.
I et innlegg, som fikk over 21 millioner visninger før det ble fjernet, ble det hevdet å ha bevis for at bildet av babyen var falskt, og det ble presentert et skjermbilde fra AI or Not, et deteksjonsverktøy som merket bildet som "generert av AI".
Selskapet reviderte senere denne vurderingen på plattform X, og forklarte at resultatet var "ufullstendig" på grunn av bildekomprimering og endringer som tilslørte identifiserende detaljer. Selskapet kunngjorde også at det hadde forbedret deteksjonsverktøyet sitt.
Vi følger med på debatten på Twitter, slik vi alltid gjør i kontroversielle saker som er svært synlige. Vi har fått bekreftet av systemet vårt at resultatet ikke er entydig på grunn av at bildet er komprimert og endret for å gjøre navneskiltet uskarpt. https://t.co/uZihVMD7Cq
- AI eller ikke (@Ai_or_Not) 13. oktober 2023
Anatoly Kvitnitsky, administrerende direktør i AI eller ikkereflekterte over de etiske implikasjonene av teknologien deres: "Vi innså at all teknologi som har blitt utviklet, på et eller annet tidspunkt har blitt brukt til ondskap ... Vi kom til den konklusjonen at vi prøver å gjøre godt, vi skal holde tjenesten aktiv og gjøre vårt beste for å sørge for at vi er sannhetens formidlere. Men vi tenkte på det - skaper vi mer forvirring, mer kaos?"
Alt dette bidrar til en utrolig forvirrende situasjon som forsterker følelser som allerede er presset til det ytterste.
Kunstig intelligens både gir og tar fra den offentlige debatten og sannheten. Hvordan tilpasser folk seg AIs tilstedeværelse i sosiale medier, og kan teknologiselskapene noen gang ta tilbake kontrollen?