In een onderzoek van NBC News werd onthuld dat populaire zoekmachines zoals Google en Microsoft's Bing onbedoeld niet-consensuele deep fake pornografie promoten.
Deep fake-technologie, wat een verzamelnaam is geworden voor elke AI-toepassing die extreem levensechte video, afbeeldingen en audio kan genereren.
Het wordt steeds vaker gebruikt om pornografisch materiaal te maken zonder toestemming, vaak gericht op vrouwelijke beroemdheden.
NBC News voerde zoekopdrachten naar 36 populaire vrouwelijke beroemdheden samen met de term "deepfakes" op Google en Bing. De bevindingen waren alarmerend: Google toonde voor 34 van deze zoekopdrachten niet-consensuele deepfakes in de topresultaten, terwijl Bing dat voor 35 deed.
Bovendien bevatten deze zoekresultaten vaak links naar websites die bekend staan om het verspreiden van dergelijke deepfake inhoud.
De situatie wordt nog verergerd door het feit dat zoeken naar termen als "nepnaakt" op deze platforms leidt naar talloze links voor het maken en bekijken van niet-consensuele diepe nepporno.
Juristen, advocaten en slachtoffers van deze technologie hebben hun ernstige bezorgdheid geuit.
Niet-vrijwillige deep fake porno schendt niet alleen de privacy, maar draagt ook bij aan de seksuele objectivering en intimidatie van vrouwen. In sommige gevallen breiden deep fakes zich uit tot seksueel misbruik van kinderen, dat voortkomt uit ongeoorloofde beelden in populaire afbeeldingen. trainingsdatabases zoals LAION.
Tot nu toe heeft Google weinig systematische moeite gedaan om deze materialen te identificeren en te verwijderen, en dat is op geen enkele schaal realistisch mogelijk.
Een woordvoerder van Google verklaarde: "We begrijpen hoe verontrustend deze inhoud kan zijn voor mensen die erdoor worden getroffen en we werken er actief aan om meer bescherming te bieden voor Search."
Ze benadrukten dat de zoekalgoritmen van Google ontworpen zijn om te voorkomen dat schadelijke of expliciete inhoud onverwacht wordt weergegeven.
Microsoft heeft daarentegen een beleid tegen non-consensual intimate imagery (NCII) en rekent seksueel expliciete deepfakes tot deze categorie. Slachtoffers kunnen melding maken van dergelijke inhoud die verschijnt in de zoekresultaten van Bing.
Een woordvoerder van Microsoft merkte op: "De verspreiding van niet-consensueel intiem beeldmateriaal is een grove schending van de persoonlijke levenssfeer en waardigheid met verwoestende gevolgen voor de slachtoffers."
Diepe vervalsingen zijn een complex aspect van AI en bieden kwaadwillende actoren een middel om verkiezingsuitslagen manipulerencontroverse creëren te midden van gebeurtenissen zoals de oorlog tussen Israël en Palestina, en aanzetten tot oplichting.
Dit is een hardnekkig probleem, want uiteindelijk zal het voor AI vrijwel onmogelijk worden om fakes op pixelniveau te onderscheiden van echte media.