Zoekmachines Google en Bing tonen gemakkelijk diepe nepporno

12 januari 2024

diepe vervalsingen

In een onderzoek van NBC News werd onthuld dat populaire zoekmachines zoals Google en Microsoft's Bing onbedoeld niet-consensuele deep fake pornografie promoten. 

Deep fake-technologie, wat een verzamelnaam is geworden voor elke AI-toepassing die extreem levensechte video, afbeeldingen en audio kan genereren.

Het wordt steeds vaker gebruikt om pornografisch materiaal te maken zonder toestemming, vaak gericht op vrouwelijke beroemdheden.

NBC News voerde zoekopdrachten naar 36 populaire vrouwelijke beroemdheden samen met de term "deepfakes" op Google en Bing. De bevindingen waren alarmerend: Google toonde voor 34 van deze zoekopdrachten niet-consensuele deepfakes in de topresultaten, terwijl Bing dat voor 35 deed. 

Bovendien bevatten deze zoekresultaten vaak links naar websites die bekend staan om het verspreiden van dergelijke deepfake inhoud. 

De situatie wordt nog verergerd door het feit dat zoeken naar termen als "nepnaakt" op deze platforms leidt naar talloze links voor het maken en bekijken van niet-consensuele diepe nepporno.

Juristen, advocaten en slachtoffers van deze technologie hebben hun ernstige bezorgdheid geuit. 

Niet-vrijwillige deep fake porno schendt niet alleen de privacy, maar draagt ook bij aan de seksuele objectivering en intimidatie van vrouwen. In sommige gevallen breiden deep fakes zich uit tot seksueel misbruik van kinderen, dat voortkomt uit ongeoorloofde beelden in populaire afbeeldingen. trainingsdatabases zoals LAION.

Tot nu toe heeft Google weinig systematische moeite gedaan om deze materialen te identificeren en te verwijderen, en dat is op geen enkele schaal realistisch mogelijk.

Een woordvoerder van Google verklaarde: "We begrijpen hoe verontrustend deze inhoud kan zijn voor mensen die erdoor worden getroffen en we werken er actief aan om meer bescherming te bieden voor Search."

Ze benadrukten dat de zoekalgoritmen van Google ontworpen zijn om te voorkomen dat schadelijke of expliciete inhoud onverwacht wordt weergegeven.

Microsoft heeft daarentegen een beleid tegen non-consensual intimate imagery (NCII) en rekent seksueel expliciete deepfakes tot deze categorie. Slachtoffers kunnen melding maken van dergelijke inhoud die verschijnt in de zoekresultaten van Bing. 

Een woordvoerder van Microsoft merkte op: "De verspreiding van niet-consensueel intiem beeldmateriaal is een grove schending van de persoonlijke levenssfeer en waardigheid met verwoestende gevolgen voor de slachtoffers."

Diepe vervalsingen zijn een complex aspect van AI en bieden kwaadwillende actoren een middel om verkiezingsuitslagen manipulerencontroverse creëren te midden van gebeurtenissen zoals de oorlog tussen Israël en Palestina, en aanzetten tot oplichting

Dit is een hardnekkig probleem, want uiteindelijk zal het voor AI vrijwel onmogelijk worden om fakes op pixelniveau te onderscheiden van echte media. 

Doe mee met de toekomst


SCHRIJF JE VANDAAG NOG IN

Duidelijk, beknopt, uitgebreid. Krijg grip op AI-ontwikkelingen met DailyAI

Sam Jeans

Sam is een wetenschap- en technologieschrijver die bij verschillende AI-startups heeft gewerkt. Als hij niet aan het schrijven is, leest hij medische tijdschriften of graaft hij door dozen met vinylplaten.

×

GRATIS PDF EXCLUSIEF
Blijf voorop met DailyAI

Meld je aan voor onze wekelijkse nieuwsbrief en ontvang exclusieve toegang tot DailyAI's nieuwste eBook: 'Mastering AI Tools: Your 2024 Guide to Enhanced Productivity'.

* Door u aan te melden voor onze nieuwsbrief accepteert u onze Privacybeleid en onze Algemene voorwaarden