Konflikten mellan Israel och Gaza har blivit en bakgrund till den alltmer utbredda användningen av AI för att skapa djupa förfalskningar, vilket har blivit ett problem för Israel, Gaza och externa observatörer.
Bland de olika bilderna från Gaza är det några som är särskilt upprörande. "Blodiga, övergivna spädbarn", som de beskrevs, blev kända på nätet.
En bild av en bränd bebis delades av influencers som Ben Shapiro och nådde miljontals människor innan den var kastas in i kontroverser för att vara AI-genererad.
Många av dessa falska bilder uppvisar subtila men ändå avslöjande tecken på digital manipulation, som "fingrar som krullar sig konstigt eller ögon som skimrar med ett onaturligt ljus. " Att upptäcka dessa tecken i stundens ingivelse är dock exceptionellt knepigt.
Dessutom varierar kvaliteten på bilderna. Vissa är återanvända foton från olika konflikter, medan andra är helt AI-genererade. Med tiden kommer de bara att bli mer realistiska.
Jean-Claude Goldenstein, VD för CREOpoint, beskriver det som att "det kommer att bli värre - mycket värre - innan det blir bättre". Hans företag har sammanställt en databas med de mest virala deep fakes från konflikten, vilket visar på AI:s växande roll när det gäller att fabricera verkligheten i konflikter.
Det primära syftet med deep fakes är att väcka chock och ångest, och därför riktar de sig ofta till barn för att intensifiera känslomässiga reaktioner.
Som Imran Ahmed, VD för Center for Countering Digital Hate, förklarar"Desinformationen är utformad för att få dig att engagera dig i den."
Djupa förfalskningar ökar ständigt
Deep fakes är en genomgripande effekt, eller bieffekt, av AI-utvecklingen. AI deep fakes riskerar inte bara att uppfattas som autentiska, utan även att verkligt innehåll uppfattas som falskt.
Dessutom är detta fenomen verkligen inte begränsat till Gazakonflikten. Liknande AI-genererat innehåll dök upp under Rysslands invasion av Ukraina 2022, inklusive en förändrad video av Ukrainas president Zelenskyj.
Andra exempel är falska bilder på politiker, till exempel Trump kramar Fauci. Och problemet stannar inte vid bilder - falska röster har inblandade politiker i konversationer som de inte deltog i eller som inte inträffade alls.
Teknikföretag över hela världen svarar med att utveckla AI-filter som kan upptäcka deepfakes, autentisera bilder och analysera text för felaktig information. Google, YouTube och Meta lovade nyligen att märka AI-genererat innehåll, men att uppnå detta tekniskt är utmanande.
Vi har också sett en flodvåg av faktagranskningstjänster som är utformade för att lyfta fram tvivelaktigt innehåll, men deras processer är felaktiga och långsamma. Och vilka är konsekvenserna av att en "välrenommerad" faktagranskare felaktigt betecknar något som äkta eller falskt?
Med viktiga val i horisonten, inte minst presidentvalet i USA 2024, väcker deep fakes intensiv paranoia. Deras effekter har ännu inte nått ett tak.