La IA está siendo explotada para crear imágenes de abusos sexuales a menores a un ritmo alarmante, lo que hace temer una amenaza abrumadora para la seguridad en Internet, advierte la Internet Watch Foundation (IWF).
El organismo de control británico ha identificado casi 3.000 imágenes generadas por IA que infringen la legislación británica.
En IWF informó que los modelos de inteligencia artificial se alimentan con imágenes de víctimas reales de abusos, generando nuevos contenidos abusivos. Además, se está utilizando la tecnología para producir imágenes de famosos menores de edad en situaciones de abuso y para "desnudar" fotos de niños vestidos que se encuentran en Internet.
Existen numerosos casos internacionales de falsos abusos a menores, incluido un caso reciente en el que varias escolares españolas fueron objeto de imágenes sexualizadas generadas por IA. En junio, periodistas del La BBC expuso imágenes pedófilas de IA circulando en plataformas como Patreon.
Susie Hargreaves, Directora Ejecutiva de IWF, expresó que sus "peores pesadillas se han hecho realidad", haciendo hincapié en la aceleración de la tecnología de IA con fines maliciosos.
La fundación ya había destacado la amenaza emergente durante el verano y ahora confirma un aumento significativo de la incidencia de material de abuso sexual infantil (CSAM) generado por IA.
En la investigación, que duró un mes, se investigó un foro de abusos infantiles de la web oscura y se descubrió que 2.978 de las 11.108 imágenes infringían la legislación británica. 20% de los contenidos se clasificaron como la forma más grave de contenido abusivo.
Dan Sexton, Director de Tecnología de IWF, señaló que Stable Diffusion, un modelo de IA de código abierto ampliamente disponible, fue la principal herramienta debatida en el foro para crear CSAM.
Al tratarse de un modelo de código abierto, Stable Diffusion no tiene necesariamente las mismas garantías que los modelos comerciales de generación de imágenes, como DALL-E 3.
Hacer frente a la explotación de los contenidos generados por inteligencia artificial en las redes sociales
Las plataformas de las redes sociales se han convertido en focos de contenidos sexualmente explícitos y explotadores generados por la IA.
Populares plataformas de redes sociales como Facebook, Instagram y TikTok están bajo escrutinio por albergar publicidad que sexualizan avatares de IA y promover aplicaciones centradas en los adultos.
Los anuncios son explícitos e implican la sexualización de figuras infantiles, aprovechando las lagunas de los sistemas de moderación de contenidos.
A pesar de los esfuerzos de Meta y TikTok por eliminar estos anuncios, la naturaleza de los contenidos, generados por inteligencia artificial, a menudo escapa a los filtros automáticos. La inconsistencia en la clasificación por edades de estas aplicaciones, junto con su disponibilidad global, complica aún más el problema.
A medida que los algoritmos de IA se vuelven más sofisticados, la creación de imágenes, vídeos y audio ultrarrealistas supone una importante amenaza para las personas, las empresas y la sociedad en general.
El FBI advertencias sobre la sextorsión AI a principios de año, sobre todo de menores, pusieron de manifiesto la urgencia de abordar este problema. No parece sino acelerarse.