2023 har været vidne til en syndflod af dybt falske billeder skabt med AI-billedgeneratorer, fra et falsk billede af en eksplosion i Pentagon til billeder af børnemishandling.
Deep fake-teknologi genererer også robuste kopier af stort set alles stemmer, fra Johnny Cash synger Barbie Girl til Falske taler fra den tidligere sudanesiske præsident Omar al-Bashir.
Derfor er det måske ikke overraskende, at falske billeder har trængt sig ind i det i forvejen pressede digitale landskab omkring den aktuelle Israel-Hamas-konflikt.
Samlet set mener analytikere, at AI-misinformation har været begrænset - der er nok ægte visceralt indhold i omløb på de sociale medier. Men alene udsigten til AI-genererede forfalskninger har fået folk til at sætte spørgsmålstegn ved legitimiteten af autentiske billeder, videoer og lydklip.
Dette kaldes "løgnerens udbytte". Virkeligt indhold kan nu potentielt afvises som AI-genereret, hvilket gør det falsk i tilskuernes øjne.
De sociale medier skaber den perfekte arena for, at mistænksomhed og paranoia omkring digitalt indhold kan sprede sig som en steppebrand - muligheden for at stemple noget, der ser ægte ud, som falsk og omvendt, er noget, mange vil bruge til at forstærke deres synspunkter.
Bill Marcellino fra RAND Corporation understreger dette dilemma: "Hvad sker der, når bogstaveligt talt alt, hvad du ser, som er digitalt, kan være syntetisk?"
På samme måde kommenterede Hany Farid, specialist i digital retsmedicin og AI-misinformation, Israel-Hamas-konflikten: "Selv efter de standarder for tågekrig, som vi er vant til, er denne konflikt særligt rodet ... Spøgelset med deepfakes er meget, meget mere betydningsfuldt nu - det kræver ikke titusinder, det kræver bare nogle få, og så forgifter man brønden, og alt bliver mistænkeligt."
Det er bemærkelsesværdigt, hvor hurtigt deep fake-teknologien har udviklet sig. I 2022 var det enkelt og intuitivt at identificere uoverensstemmelser i AI-genererede billeder, mens det nu ofte kræver specialiseret analyse.
I takt med at de følelsesladede diskussioner om Gaza fortsætter, især på de sociale medier, bliver tillidens erosion mere tydelig.
Falsk indhold skaber kontroverser og dermed eksponering
Problemet med tvivlsomt falsk indhold er, at det skaber debat og dermed indtryk, likes og kommentarer.
Et opslag på X, som fik 1,8 millioner visninger, afbildede for eksempel fejlagtigt Atletico Madrid-fans viser et enormt palæstinensisk flag. Brugere påpegede de forvrængede figurer på billedet, hvilket tyder på AI-generering.
Et andet indlæg fra en Hamas-tilknyttet konto på platform X, som rapporteret af New York Times, afbildede fejlagtigt en teltlejr for fordrevne israelere med et forkert flagdesign. Dette opslag blev efterfølgende fjernet.
Større opmærksomhed og granskning blev rettet mod optagelser uden tydelige tegn på AI-manipulation. Eksempler er en video af en hospitalsdirektør i Gaza, der holder en pressekonference, som nogle betegnede som "AI-genereret" på trods af, at flere kilder fangede begivenheden fra forskellige vinkler.
I et forsøg på at adskille sandheden fra AI-genereret indhold har nogle brugere af sociale medier henvendt sig til detektionsværktøjer. Disse værktøjer hævder at kunne identificere digital manipulation, men har vist sig at være inkonsekvente og upålidelige.
I de første dage af konflikten delte premierminister Netanyahu en række billeder på platform X, hvor han hævdede, at de viste "forfærdelige billeder af babyer, der var blevet myrdet og brændt" af Hamas.
Da den konservative kommentator Ben Shapiro gjorde opmærksom på et af billederne på platform X, blev han udsat for omfattende beskyldninger om at sprede AI-genereret indhold. Vi vil ikke indlejre tweetet direkte på grund af billedets forfærdelige karakter, men du kan se det debat om Shapiros indlæg her.
Et indlæg, som fik over 21 millioner visninger, før det blev fjernet, hævdede at have beviser for, at billedet af babyen var falsk, og præsenterede et screenshot fra AI or Not, et detekteringsværktøj, der betegnede billedet som "genereret af AI".
Virksomheden reviderede senere denne vurdering på platform X og forklarede, at resultatet var "ikke fyldestgørende" på grund af billedkomprimering og ændringer, der skjulte identificerende detaljer. Virksomheden meddelte også, at den havde forfinet sit detektionsværktøj som svar.
Vi overvåger debatten på Twitter, som vi altid gør med meget synlige kontroversielle sager. Vi har fået bekræftet af vores system, at resultatet ikke er entydigt, fordi fotografiet er blevet komprimeret og ændret for at sløre navneskiltet. https://t.co/uZihVMD7Cq
- AI eller ej (@Ai_or_Not) 13. oktober 2023
Anatoly Kvitnitsky, administrerende direktør for AI eller ejreflekterede over de etiske konsekvenser af deres teknologi: "Vi indså, at enhver teknologi, der er blevet bygget, på et tidspunkt er blevet brugt til noget ondt ... Vi kom til den konklusion, at vi prøver at gøre noget godt, vi vil holde tjenesten aktiv og gøre vores bedste for at sikre, at vi er leverandører af sandheden. Men vi tænkte over det - skaber vi mere forvirring, mere kaos?"
Det giver alt sammen en utrolig forvirrende situation, som forstærker følelser, der allerede er presset ud over grænsen.
AI både giver og tager fra den offentlige debat og sandheden. Hvordan tilpasser folk sig dens tilstedeværelse på de sociale medier, og kan teknologivirksomhederne nogensinde tage kontrollen tilbage?