I en undersøkelse utført av NBC News ble det avslørt at populære søkemotorer som Google og Microsofts Bing utilsiktet fremmer falsk pornografi uten samtykke.
Deep fake-teknologi, som har blitt en samlebetegnelse for alle AI-applikasjoner som kan generere ekstremt naturtro video, bilder og lyd.
Det har i økende grad blitt brukt til å lage pornografisk materiale uten samtykke, ofte rettet mot kvinnelige kjendiser.
NBC News gjennomførte søk etter 36 populære kvinnelige kjendiser sammen med begrepet "deepfakes" på Google og Bing. Funnene var alarmerende: Google viste ikke-samtykkebaserte deepfakes-bilder i toppresultatene for 34 av disse søkene, mens Bing gjorde det for 35.
I tillegg inneholdt søkeresultatene ofte lenker til nettsteder som var kjent for å distribuere slikt deepfake-innhold.
Situasjonen forverres av at søk på begreper som "fake nudes" på disse plattformene fører til en rekke lenker for oppretting og visning av ikke-samtykke dyp falsk porno.
Juridiske eksperter, advokater og ofre for denne teknologien har uttrykt alvorlig bekymring.
Ikke-samtykkebasert deep fake-porno krenker ikke bare personvernet, men bidrar også til seksuell objektifisering og trakassering av kvinner. I noen tilfeller går deep fake-pornoen så langt som til seksuelt misbruk av barn, som stammer fra ulovlige bilder som finnes i populære bilde opplæringsdatabaser som LAION.
Foreløpig har det vært lite systematisk innsats fra Google for å identifisere og fjerne dette materialet, og det er kanskje ikke realistisk mulig i noen skala.
En talsperson for Google uttalte: "Vi forstår hvor opprivende dette innholdet kan være for folk som er berørt av det, og vi jobber aktivt for å gi mer beskyttelse til søk."
De understreket at Googles søkealgoritmer er utformet for å unngå uventet visning av skadelig eller eksplisitt innhold.
Microsoft har derimot retningslinjer mot ikke-samtykkebaserte intime bilder (NCII), og inkluderer seksuelt eksplisitte deepfakes i denne kategorien. Ofre kan rapportere slikt innhold som vises i Bing-søkeresultatene.
En talsperson for Microsoft uttalte: "Distribusjon av intime bilder uten samtykke er en grov krenkelse av privatlivets fred og verdighet, med ødeleggende konsekvenser for ofrene."
Deep fakes er et komplekst aspekt ved kunstig intelligens, og gir ondsinnede aktører en mulighet til å manipulere valgresultater, skape kontrovers midt i hendelser som Israel-Palestina-krigen, og sette i gang svindelforsøk.
Dette er et uløselig problem, ettersom det etter hvert vil bli praktisk talt umulig å skille forfalskninger fra ekte medier på pikselnivå.