En una investigación de NBC News, se reveló que motores de búsqueda populares como Google y Bing de Microsoft están promoviendo inadvertidamente pornografía falsa profunda no consentida.
La tecnología de falsificación profunda, que se ha convertido en un término comodín para cualquier aplicación de IA que pueda generar vídeo, imágenes y audio extremadamente realistas.
Cada vez se utiliza más para crear material pornográfico sin consentimiento, a menudo dirigido a mujeres famosas.
NBC News realizó búsquedas de 36 famosas junto con el término "deepfakes" en Google y Bing. Los resultados fueron alarmantes: Google mostró imágenes deepfakes no consentidas en los primeros resultados de 34 de estas búsquedas, mientras que Bing lo hizo en 35.
Además, estos resultados de búsqueda incluían a menudo enlaces a sitios web conocidos por distribuir estos contenidos deepfake.
La situación se agrava por el hecho de que la búsqueda de términos como "desnudos falsos" en estas plataformas conduce a numerosos enlaces para crear y ver porno falso profundo no consentido.
Expertos jurídicos, defensores y víctimas de esta tecnología han expresado serias preocupaciones.
El deep fake porn no consentido no sólo viola la intimidad, sino que también contribuye a la cosificación sexual y al acoso de las mujeres. En algunos casos, los deep fakes se extienden al abuso sexual infantil, que se deriva de las imágenes ilícitas contenidas en la imagen popular bases de datos de formación como LAION.
En la actualidad, Google ha realizado pocos esfuerzos sistemáticos para identificar y eliminar estos materiales, y puede que esto no sea posible a una escala realista.
Un portavoz de Google declaró: "Entendemos lo angustioso que puede ser este contenido para las personas afectadas por él, y estamos trabajando activamente para aportar más protecciones a la Búsqueda."
Hicieron hincapié en que los algoritmos de búsqueda de Google están diseñados para evitar mostrar inesperadamente contenidos nocivos o explícitos.
Microsoft, por su parte, tiene una política contra las imágenes íntimas no consentidas (NCII) e incluye en esta categoría los deepfakes sexualmente explícitos. Las víctimas pueden denunciar los contenidos de este tipo que aparecen en los resultados de búsqueda de Bing.
Un portavoz de Microsoft señaló: "La distribución de imágenes íntimas no consentidas es una grave violación de la intimidad y la dignidad personales con efectos devastadores para las víctimas."
Las falsificaciones profundas son un aspecto complejo de la IA, ya que ofrecen a los actores maliciosos un medio para manipular los resultados electoralescrear controversia en medio de acontecimientos como la guerra entre Israel y Palestina, y instigar estafas.
Esto plantea un problema insoluble, ya que con el tiempo será prácticamente imposible distinguir las falsificaciones profundas de los medios reales a nivel de píxel.