Las autoridades australianas abren una investigación sobre falsificaciones explícitas de IA profunda

13 de junio de 2024

  • Las autoridades australianas investigan un falso incidente en una escuela de Melbourne
  • Según la policía, se crearon imágenes explícitas de unos 50 niños.
  • Cada vez son más frecuentes los incidentes de falsificación profunda dirigidos a niños pequeños
Falsificaciones profundas

La policía australiana inició una investigación sobre la distribución de imágenes pornográficas generadas por inteligencia artificial de unas 50 colegialas, y se cree que el autor es un adolescente. 

En una entrevista concedida el miércoles a la cadena ABC, Emily, la madre de una joven de 16 años que asiste a la escuela Bacchus Marsh Grammar, reveló que su hija sintió náuseas físicas tras ver las imágenes "mutiladas" en Internet.

"Recogí a mi hija de una fiesta de pijamas y estaba muy angustiada, vomitando porque las imágenes eran increíblemente gráficas", explicó a ABC Radio Melbourne.

La escuela emitió un comunicado declarando su compromiso con el bienestar de los estudiantes, señalando que está ofreciendo asesoramiento y cooperando con la policía.

"El bienestar de nuestros estudiantes y sus familias en Bacchus Marsh Grammar es una prioridad absoluta y se está abordando activamente", el la escuela declaró.

Esto se produce en un momento en que el gobierno australiano está impulsando leyes más estrictas para las falsificaciones profundas explícitas no consentidas, aumentando las penas de prisión por generar y compartir CSAM, generado por IA o no, hasta siete años.

Aumentan las falsificaciones explícitas

Los expertos afirman que los depredadores en línea que frecuentan la web oscura aprovechan cada vez más las herramientas de IA -en concreto los generadores de texto a imagen como Stability AI- para generar nuevos CSAM.

Resulta inquietante que estos creadores de CSAM se fijen a veces en supervivientes de abusos a menores cuyas imágenes circulan por Internet. Los grupos de seguridad infantil informan de numerosas discusiones en chats sobre el uso de IA para crear más contenidos que muestren a determinadas "estrellas" menores de edad populares en estas comunidades abusivas.

La IA permite crear nuevas imágenes explícitas para revictimizar y volver a traumatizar a las supervivientes.

"Mi cuerpo nunca volverá a ser mío, y eso es algo con lo que muchas supervivientes tienen que lidiar", declaró recientemente Leah Juliett, activista y superviviente del CSAM. dijo a The Guardian.

Un octubre de 2023 informe de la fundación británica Internet Watch descubrió el alcance del CSAM generado por IA. El informe detectó más de 20.000 imágenes de este tipo publicadas en un único foro de la red oscura durante un mes. 

Las imágenes son a menudo indescifrables a partir de fotos auténticas, y muestran contenidos profundamente perturbadores, como la violación simulada de bebés y niños pequeños.

El año pasado, un Informe de la Universidad de Stanford reveló que cientos de imágenes CSAM reales se incluyeron en la base de datos LAION-5B utilizada para entrenar herramientas populares de IA. Una vez que la base de datos se hizo de código abierto, los expertos afirman que se disparó la creación de CSAM generados por IA.

Las recientes detenciones demuestran que el problema no es teórico, y las fuerzas policiales de todo el mundo están tomando medidas. Por ejemplo, en abril, un Un hombre de Florida fue acusado por supuestamente utilizar IA para generar imágenes explícitas de un niño vecino.

El año pasado, un hombre de Carolina del Norte -un psiquiatra infantil de todas las personas- fue condenado a 40 años de prisión por crear pornografía infantil generada por IA a partir de sus pacientes. 

Y hace sólo unas semanas, el Departamento de Justicia de EE.UU. anunció la arresto de Steven Anderegg de 42 años en Wisconsin por crear presuntamente más de 13.000 imágenes abusivas de menores generadas por IA.

La legislación actual no es suficiente, según legisladores y defensores de los derechos humanos

Aunque la mayoría de los países ya cuentan con leyes que tipifican como delito el CSAM generado por ordenador, los legisladores quieren reforzar la normativa. 

Por ejemplo, en Estados Unidos, un proyecto de ley bipartidista para permitir a las víctimas demandar a los creadores de falsificaciones profundas explícitas no consentidas. 

Sin embargo, quedan por abordar algunas zonas grises en las que es difícil determinar con precisión qué leyes infringen tales actividades. 

Por ejemplo, en España se descubrió a un joven estudiante difundiendo imágenes explícitas de miembros de clase generados con AI. Algunos argumentaron que esto caería bajo las leyes de pedofilia, lo que daría lugar a cargos más severos, mientras que otros dijeron que no podría cumplir ese criterio bajo la ley actual. 

Un incidente similar ocurrió en un escuela en Nueva Jerseymostrando cómo los niños pueden estar utilizando estas herramientas de IA de forma ingenua y exponiéndose a riesgos extremos en el proceso. 

Las empresas tecnológicas que están detrás de los generadores de imágenes por IA prohíben utilizar sus herramientas para crear contenidos ilegales. Sin embargo, numerosos y potentes modelos de IA son de código abierto y pueden ejecutarse de forma privada fuera de línea, por lo que la caja no puede cerrarse del todo. 

Además, gran parte de la actividad delictiva también se ha trasladado a plataformas de mensajería cifradas, lo que dificulta aún más su detección.

Si la IA abrió la caja de Pandora, éste es sin duda uno de los peligros que se esconden en su interior.

Únete al futuro


SUSCRÍBETE HOY

Claro, conciso y completo. Conozca los avances de la IA con DailyAI

Sam Jeans

Sam es un escritor de ciencia y tecnología que ha trabajado en varias startups de IA. Cuando no está escribiendo, se le puede encontrar leyendo revistas médicas o rebuscando en cajas de discos de vinilo.

×

PDF GRATUITO EXCLUSIVO
Adelántese con DailyAI

Suscríbase a nuestro boletín semanal y reciba acceso exclusivo al último eBook de DailyAI: 'Mastering AI Tools: Su guía 2024 para mejorar la productividad'.

*Al suscribirse a nuestro boletín de noticias, acepta nuestra política de privacidad. Política de privacidad y nuestro Condiciones generales