Dype forfalskninger skaper kaos i Israel-Palestina-konflikten

28. oktober 2023

AI Israel

2023 har vært vitne til en flom av falske bilder skapt med AI-bildegeneratorer, fra et falskt bilde av en eksplosjon i Pentagon til bilder av barnemishandling. 

Deep fake-teknologien genererer også robuste kopier av praktisk talt alle stemmer, fra Johnny Cash synger Barbie Girl til falske taler fra tidligere president i Sudan Omar al-Bashir. 

Det er derfor kanskje ikke overraskende at det har oppstått en rekke forfalskninger i det allerede sprengte digitale landskapet rundt den pågående Israel-Hamas-konflikten. 

Analytikere mener at AI-falsk informasjon har vært begrenset - det er nok ekte, visceralt innhold i omløp på sosiale medier. Men bare utsiktene til AI-genererte forfalskninger har fått folk til å stille spørsmål ved legitimiteten til autentiske bilder, videoer og lydklipp.

Dette kalles "løgnerens utbytte". Ekte innhold kan nå potensielt avfeies som AI-generert, noe som gjør det falskt i tilskuernes øyne.

Sosiale medier skaper den perfekte arenaen for at mistenksomhet og paranoia rundt digitalt innhold kan spre seg som ild i tørt gress - muligheten til å stemple noe som virker ekte som falskt, og omvendt, er noe mange vil bruke til å forsterke sine synspunkter. 

Bill Marcellino fra RAND Corporation understreker dette dilemmaet: "Hva skjer når bokstavelig talt alt du ser som er digitalt, kan være syntetisk?" 

Hany Farid, spesialist på digital kriminalteknikk og kunstig intelligens, kommenterte Israel-Hamas-konflikten på følgende måte: "Selv med de tåkekrigsstandardene vi er vant til, er denne konflikten spesielt rotete ... Spøkelset med deepfakes er mye, mye viktigere nå - det trengs ikke titusener, det trengs bare noen få, og så forgifter du brønnen, og alt blir mistenkelig."

Det som er bemerkelsesverdig, er hvor raskt deep fake-teknologien har utviklet seg. I 2022 var det enkelt og intuitivt å identifisere uoverensstemmelser i AI-genererte bilder, mens det i dag ofte krever spesialisert analyse. 

Etter hvert som de følelsesladede diskusjonene om Gaza fortsetter, særlig på sosiale medier, blir svekkelsen av tilliten stadig tydeligere.

Falsk innhold skaper kontroverser og dermed eksponering

Problemet med tvilsomt falskt innhold er at det skaper debatt, og i sin tur inntrykk, likes og kommentarer 

Et innlegg på X, som ble sett 1,8 millioner ganger, ga for eksempel et feilaktig bilde av Atletico Madrid-fans som viser et enormt palestinsk flagg. Brukere påpekte de forvrengte figurene i bildet, noe som indikerer AI-generering. 

Et annet innlegg fra en Hamas-tilknyttet konto på plattform X, som New York Times rapporterte om, ga et unøyaktig bilde av en teltleir for fordrevne israelere, med feil flaggdesign. Dette innlegget ble senere fjernet. 

Oppmerksomheten og granskningen ble i større grad rettet mot opptak uten tydelige tegn på AI-manipulasjon. Eksempler på dette er en video av en sykehusdirektør i Gaza som holder en pressekonferanse, som noen stemplet som "AI-generert" til tross for at flere kilder fanget opp hendelsen fra ulike vinkler.

I et forsøk på å skille sannheten fra AI-generert innhold har noen brukere av sosiale medier vendt seg til deteksjonsverktøy. Disse verktøyene hevder å kunne identifisere digital manipulasjon, men har vist seg å være inkonsekvente og upålitelige.

I konfliktens første dager delte statsminister Netanyahu en serie bilder på plattform X, der han hevdet at de viste "forferdelige bilder av babyer som ble myrdet og brent" av Hamas. 

Da den konservative kommentatoren Ben Shapiro gjorde oppmerksom på et av bildene på plattform X, ble han utsatt for omfattende beskyldninger om å spre AI-generert innhold. Vi vil ikke legge inn tweeten direkte på grunn av bildets forferdelige natur, men du kan se debatt om Shapiros innlegg her

I et innlegg, som fikk over 21 millioner visninger før det ble fjernet, ble det hevdet å ha bevis for at bildet av babyen var falskt, og det ble presentert et skjermbilde fra AI or Not, et deteksjonsverktøy som merket bildet som "generert av AI". 

Selskapet reviderte senere denne vurderingen på plattform X, og forklarte at resultatet var "ufullstendig" på grunn av bildekomprimering og endringer som tilslørte identifiserende detaljer. Selskapet kunngjorde også at det hadde forbedret deteksjonsverktøyet sitt.

Anatoly Kvitnitsky, administrerende direktør i AI eller ikkereflekterte over de etiske implikasjonene av teknologien deres: "Vi innså at all teknologi som har blitt utviklet, på et eller annet tidspunkt har blitt brukt til ondskap ... Vi kom til den konklusjonen at vi prøver å gjøre godt, vi skal holde tjenesten aktiv og gjøre vårt beste for å sørge for at vi er sannhetens formidlere. Men vi tenkte på det - skaper vi mer forvirring, mer kaos?"

Alt dette bidrar til en utrolig forvirrende situasjon som forsterker følelser som allerede er presset til det ytterste. 

Kunstig intelligens både gir og tar fra den offentlige debatten og sannheten. Hvordan tilpasser folk seg AIs tilstedeværelse i sosiale medier, og kan teknologiselskapene noen gang ta tilbake kontrollen?

Bli med i fremtiden


ABONNER I DAG

Tydelig, kortfattet og omfattende. Få et grep om AI-utviklingen med DagligAI

Sam Jeans

Sam er en vitenskaps- og teknologiskribent som har jobbet i ulike oppstartsbedrifter innen kunstig intelligens. Når han ikke skriver, leser han medisinske tidsskrifter eller graver seg gjennom esker med vinylplater.

×

GRATIS PDF EKSKLUSIV
Hold deg i forkant med DailyAI

Meld deg på vårt ukentlige nyhetsbrev og få eksklusiv tilgang til DailyAIs nyeste e-bok: "Mastering AI Tools: Din 2024-guide til økt produktivitet".

*Ved å abonnere på vårt nyhetsbrev aksepterer du vår Retningslinjer for personvern og vår Vilkår og betingelser