Israel-Gaza-konflikten er blevet et bagtæppe for den voksende brug af AI til at skabe deep fakes, hvilket er blevet et problem for Israel, Gaza og eksterne observatører.
Blandt de forskellige billeder fra Gaza er der nogle, der er særligt skræmmende. "Blodige, forladte spædbørn", som de blev beskrevet, blev berømt på nettet.
Et billede af en forbrændt baby blev delt af influencere som Ben Shapiro og nåede ud til millioner af mennesker, før det blev... kastet ud i kontroverser for at være AI-genereret.
Mange af disse falske billeder udviser subtile, men afslørende tegn på digital manipulation, som "fingre, der krøller mærkeligt, eller øjne, der skinner med et unaturligt lys. " Men det er usædvanligt vanskeligt at opdage disse tegn i øjeblikket.
Desuden varierer kvaliteten af billederne. Nogle er genbrugte fotos fra forskellige konflikter, mens andre er helt AI-genererede. Med tiden vil de kun blive mere realistiske.
Som CEO for CREOpoint, Jean-Claude Goldenstein, beskriver det: "Det bliver værre - meget værre - før det bliver bedre." Hans virksomhed har samlet en database med de mest virale deep fakes fra konflikten, som viser AI's voksende rolle i at skabe realiteter i konflikter.
Det primære formål med deep fakes er at skabe chok og angst, og derfor er de ofte rettet mod børn for at forstærke de følelsesmæssige reaktioner.
Som Imran Ahmed, CEO for Center for Countering Digital Hate, forklarer"Desinformationen er designet til at få dig til at engagere dig i den."
Dybe forfalskninger er stadigt stigende
Deep fakes er en gennemgribende effekt, eller bivirkning, af AI-udvikling. Ikke alene risikerer AI deep fakes at blive opfattet som autentiske, men de risikerer også, at ægte indhold bliver opfattet som falsk.
Desuden er dette fænomen bestemt ikke begrænset til Gaza-konflikten. Lignende AI-genereret indhold dukkede op under Ruslands invasion af Ukraine i 2022, herunder en ændret video af den ukrainske præsident Zelenskyy.
Andre eksempler er falske billeder af politikere, som f.eks. Trump krammer Fauci. Og problemet stopper ikke ved billeder - falske stemmer har implicerede politikere i samtaler som de ikke deltog i, eller som slet ikke fandt sted.
Teknologivirksomheder verden over reagerer ved at udvikle AI-filtre, der kan opdage deepfakes, autentificere billeder og analysere tekst for misinformation. Google, YouTube og Meta lovede for nylig at mærke AI-genereret indhold, men det er en teknisk udfordring at opnå dette.
Vi har også været vidne til en syndflod af faktatjek-tjenester, der er designet til at fremhæve tvivlsomt indhold, men deres processer er fejlbehæftede og langsomme. Og hvad er konsekvenserne af, at en 'velrenommeret' faktatjekker fejlagtigt stempler noget som ægte eller falsk?
Med vigtige valg i horisonten, ikke mindst det amerikanske præsidentvalg i 2024, vækker deep fakes intens paranoia. Deres indvirkning har ikke nået et loft endnu.