Un'inchiesta della NBC News ha rivelato che i motori di ricerca più diffusi, come Google e Bing di Microsoft, promuovono inavvertitamente una falsa pornografia profonda non consensuale.
La tecnologia Deep fake, che è diventata un termine generico per indicare qualsiasi applicazione AI in grado di generare video, immagini e audio estremamente realistici.
È stato sempre più utilizzato per creare materiale pornografico senza consenso, spesso prendendo di mira celebrità femminili.
NBC News ha condotto ricerche di 36 popolari celebrità femminili con il termine "deepfakes" su Google e Bing. I risultati sono stati allarmanti: Google ha mostrato immagini deep fake non consensuali nei primi risultati per 34 di queste ricerche, mentre Bing lo ha fatto per 35.
Inoltre, questi risultati di ricerca spesso includevano link a siti web noti per la distribuzione di tali contenuti deepfake.
La situazione è aggravata dal fatto che la ricerca di termini come "nudi falsi" su queste piattaforme porta a numerosi link per la creazione e la visualizzazione di immagini. porno falso profondo non consensuale.
Esperti legali, sostenitori e vittime di questa tecnologia hanno espresso serie preoccupazioni.
Il deep fake porn non consensuale non solo viola la privacy, ma contribuisce anche all'oggettivazione sessuale e alla molestia delle donne. In alcuni casi, i deep fake si estendono all'abuso sessuale sui minori, che deriva da immagini illecite contenute in immagini popolari. database di formazione come LAION.
Al momento, Google ha compiuto pochi sforzi sistematici per identificare e rimuovere questi materiali e ciò potrebbe non essere realisticamente possibile su qualsiasi scala.
Un portavoce di Google ha dichiarato: "Comprendiamo quanto possano essere angoscianti questi contenuti per le persone che ne sono state colpite, e stiamo lavorando attivamente per portare maggiori protezioni alla Ricerca".
Hanno sottolineato che gli algoritmi di ricerca di Google sono progettati per evitare di visualizzare inaspettatamente contenuti dannosi o espliciti.
Microsoft, invece, ha una politica contro le immagini intime non consensuali (NCII) e include in questa categoria i deepfake sessualmente espliciti. Le vittime possono segnalare tali contenuti che appaiono nei risultati di ricerca di Bing.
Un portavoce di Microsoft ha dichiarato: "La distribuzione di immagini intime non consensuali è una grave violazione della privacy e della dignità personale con effetti devastanti per le vittime".
Le falsificazioni profonde sono un aspetto complesso dell'IA, che offre agli attori malintenzionati un mezzo per manipolare i risultati delle elezioni, creare polemiche in mezzo a eventi come la guerra israelo-palestinese, e istigano alle truffe.
Si tratta di un problema intrattabile, poiché alla fine l'intelligenza artificiale diventerà praticamente impossibile distinguere i falsi profondi dai media reali a livello di pixel.