Het conflict tussen Israël en Gaza is een achtergrond geworden voor het toenemende gebruik van AI bij het creëren van diepe vervalsingen, wat een probleem is geworden voor Israël, Gaza en externe waarnemers.
Van de verschillende beelden uit Gaza zijn er een paar bijzonder schokkend. "Bloederige, achtergelaten baby's", zoals ze werden beschreven, kregen online bekendheid.
Een afbeelding van een verbrande baby werd gedeeld door influencers, zoals Ben Shapiro, en bereikte miljoenen mensen voordat het was in opspraak gebracht omdat ze door AI zijn gemaakt.
Veel van deze nepafbeeldingen vertonen subtiele maar veelzeggende tekenen van digitale manipulatie, zoals "vingers die vreemd krullen, of ogen die glinsteren met een onnatuurlijk licht. "Het ontdekken van deze tekenen op het moment zelf is echter bijzonder lastig.
Bovendien varieert de kwaliteit van de beelden. Sommige zijn hergebruikte foto's van verschillende conflicten, terwijl andere volledig door AI zijn gegenereerd. Na verloop van tijd zullen ze pas realistisch worden.
Zoals de CEO van CREOpoint, Jean-Claude Goldenstein, het omschrijft: "Het wordt erger - veel erger - voordat het beter wordt." Zijn bedrijf heeft een database samengesteld van de meest virale deep fakes uit het conflict, wat de groeiende rol van AI laat zien in het verzinnen van realiteiten in conflicten.
Het primaire doel van diepe vervalsingen is om schok en verdriet te veroorzaken, vandaar dat ze vaak gericht zijn op kinderen om emotionele reacties te versterken.
Zoals Imran Ahmed, CEO van het Centrum voor het Tegengaan van Digitale Haat, legt uit"De desinformatie is zo ontworpen dat je je ermee inlaat."
Diepe vervalsingen komen steeds vaker voor
Diepe vervalsingen zijn een alomtegenwoordig effect, of neveneffect, van de ontwikkeling van AI. Het risico bestaat niet alleen dat AI-fraude als authentiek wordt gezien, maar ook dat echte inhoud als nep wordt gezien.
Bovendien is dit fenomeen zeker niet beperkt tot het conflict in Gaza. Soortgelijke AI-gegenereerde inhoud dook op tijdens de Russische invasie van Oekraïne in 2022, waaronder een gewijzigde video van de Oekraïense president Zelenskyy.
Andere voorbeelden zijn nepafbeeldingen van politici, zoals Trump knuffelt Fauci. En het probleem stopt niet bij afbeeldingen - nepstemmen hebben betrokken politici in gesprekken waaraan ze niet deelnamen of die helemaal niet voorkwamen.
Technologiebedrijven wereldwijd reageren hierop door AI-filters te ontwikkelen die deepfakes kunnen detecteren, afbeeldingen kunnen verifiëren en tekst kunnen analyseren op verkeerde informatie. Google, YouTube en Meta hebben onlangs gezworen AI-gegenereerde inhoud te labelen, maar om dit technisch voor elkaar te krijgen is een uitdaging.
We zijn ook getuige geweest van een stortvloed aan fact-checking diensten die zijn ontworpen om dubieuze inhoud te markeren, maar hun processen zijn feilbaar en traag. En wat zijn de gevolgen als een 'gerenommeerde' feitencontroleur iets ten onrechte als echt of nep bestempelt?
Met cruciale verkiezingen in het verschiet, waaronder de Amerikaanse presidentsverkiezingen van 2024, wekken diepe vervalsingen intense paranoia op. Hun impact heeft nog geen plafond bereikt.