Aumentan las imágenes falsas de abusos sexuales a menores, según un nuevo informe

25 de octubre de 2023

web oscura ai

La IA está siendo explotada para crear imágenes de abusos sexuales a menores a un ritmo alarmante, lo que hace temer una amenaza abrumadora para la seguridad en Internet, advierte la Internet Watch Foundation (IWF). 

El organismo de control británico ha identificado casi 3.000 imágenes generadas por IA que infringen la legislación británica.

En IWF informó que los modelos de inteligencia artificial se alimentan con imágenes de víctimas reales de abusos, generando nuevos contenidos abusivos. Además, se está utilizando la tecnología para producir imágenes de famosos menores de edad en situaciones de abuso y para "desnudar" fotos de niños vestidos que se encuentran en Internet.

Existen numerosos casos internacionales de falsos abusos a menores, incluido un caso reciente en el que varias escolares españolas fueron objeto de imágenes sexualizadas generadas por IA. En junio, periodistas del La BBC expuso imágenes pedófilas de IA circulando en plataformas como Patreon.

Susie Hargreaves, Directora Ejecutiva de IWF, expresó que sus "peores pesadillas se han hecho realidad", haciendo hincapié en la aceleración de la tecnología de IA con fines maliciosos.

La fundación ya había destacado la amenaza emergente durante el verano y ahora confirma un aumento significativo de la incidencia de material de abuso sexual infantil (CSAM) generado por IA.

En la investigación, que duró un mes, se investigó un foro de abusos infantiles de la web oscura y se descubrió que 2.978 de las 11.108 imágenes infringían la legislación británica. 20% de los contenidos se clasificaron como la forma más grave de contenido abusivo.

Dan Sexton, Director de Tecnología de IWF, señaló que Stable Diffusion, un modelo de IA de código abierto ampliamente disponible, fue la principal herramienta debatida en el foro para crear CSAM.

Al tratarse de un modelo de código abierto, Stable Diffusion no tiene necesariamente las mismas garantías que los modelos comerciales de generación de imágenes, como DALL-E 3.

Hacer frente a la explotación de los contenidos generados por inteligencia artificial en las redes sociales

Las plataformas de las redes sociales se han convertido en focos de contenidos sexualmente explícitos y explotadores generados por la IA. 

Populares plataformas de redes sociales como Facebook, Instagram y TikTok están bajo escrutinio por albergar publicidad que sexualizan avatares de IA y promover aplicaciones centradas en los adultos. 

Los anuncios son explícitos e implican la sexualización de figuras infantiles, aprovechando las lagunas de los sistemas de moderación de contenidos. 

A pesar de los esfuerzos de Meta y TikTok por eliminar estos anuncios, la naturaleza de los contenidos, generados por inteligencia artificial, a menudo escapa a los filtros automáticos. La inconsistencia en la clasificación por edades de estas aplicaciones, junto con su disponibilidad global, complica aún más el problema.

A medida que los algoritmos de IA se vuelven más sofisticados, la creación de imágenes, vídeos y audio ultrarrealistas supone una importante amenaza para las personas, las empresas y la sociedad en general. 

El FBI advertencias sobre la sextorsión AI a principios de año, sobre todo de menores, pusieron de manifiesto la urgencia de abordar este problema. No parece sino acelerarse. 

Únete al futuro


SUSCRÍBETE HOY

Claro, conciso y completo. Conozca los avances de la IA con DailyAI

Sam Jeans

Sam es un escritor de ciencia y tecnología que ha trabajado en varias startups de IA. Cuando no está escribiendo, se le puede encontrar leyendo revistas médicas o rebuscando en cajas de discos de vinilo.

×

PDF GRATUITO EXCLUSIVO
Adelántese con DailyAI

Suscríbase a nuestro boletín semanal y reciba acceso exclusivo al último eBook de DailyAI: 'Mastering AI Tools: Su guía 2024 para mejorar la productividad'.

*Al suscribirse a nuestro boletín de noticias, acepta nuestra política de privacidad. Política de privacidad y nuestro Condiciones generales