Una investigación publicada por la Universidad Anglia Ruskin del Reino Unido ha revelado una creciente demanda de CSAM generado por IA en foros de la web oscura.
Los investigadores Dra. Deanna Davy y Profesor. Sam Lundrigan analizaron las conversaciones de estos foros a lo largo del año pasado, descubriendo un preocupante patrón de usuarios que aprenden y comparten activamente técnicas para crear este tipo de material utilizando herramientas de IA.
"Descubrimos que muchos de los delincuentes se abastecen de imágenes de niños para manipularlos, y que el deseo de imágenes 'hardcore', que van en aumento a partir de las 'softcore', se discute con regularidad", explica el Dr. Davy. en una entrada de blog.
Esto disipa la idea errónea de que las imágenes generadas por IA son "sin víctimas", ya que a menudo se utilizan imágenes reales de niños como material de partida para estas manipulaciones de IA.
El estudio también reveló que los miembros del foro se referían a los creadores de CSAM generados por IA como "artistas", y algunos expresaron su esperanza de que la tecnología evolucionara para hacer el proceso aún más fácil de lo que es ahora.
Este comportamiento delictivo se ha normalizado en estas comunidades en línea.
El profesor Lundrigan añadió: "Las conversaciones que hemos analizado muestran que, a través de la proliferación de consejos y orientaciones sobre cómo utilizar la IA de esta manera, este tipo de material de abuso infantil se está intensificando y los delitos están aumentando. Esto se suma a la creciente amenaza mundial del abuso de menores en línea en todas sus formas, y debe considerarse como un área crítica a abordar en nuestra respuesta a este tipo de delitos."
Detenido un hombre por producción ilícita de imágenes de IA
En un caso relacionado Según informó la BBC ese mismo día, la Policía de Greater Manchester (GMP) anunció recientemente lo que describe como un "caso histórico" relacionado con el uso de IA para crear imágenes indecentes de niños.
Hugh Nelson, un hombre de 27 años de Bolton, admitió haber cometido 11 delitos, entre ellos la distribución y elaboración de imágenes indecentes, y deberá ser condenado el 25 de septiembre.
La detective Carly Baines, de la GMP, describió el caso como "particularmente único y profundamente horripilante", señalando que Nelson había transformado "fotografías cotidianas normales" de niños reales en imágenes indecentes utilizando tecnología de IA. "
El caso contra Nelson ilustra una vez más los retos a los que se enfrentan las fuerzas del orden para hacer frente a esta nueva forma de delincuencia digital.
GMP lo describió como una "verdadera prueba de legislación", ya que el uso de la IA de esta manera no se aborda específicamente en la legislación actual del Reino Unido. DC Baines expresó su esperanza de que este caso "desempeñe un papel a la hora de influir en el aspecto de la futura legislación".
Crecen los problemas en torno a las imágenes ilícitas generadas por IA
Estos acontecimientos se producen tras otros casos sonados relacionados con el CSAM generado por IA.
Por ejemplo, en abril, un hombre de Florida fue acusado de utilizar presuntamente IA para generar imágenes explícitas de un niño vecino. El año pasado, en Carolina del Norte psiquiatra infantil fue condenado a 40 años de cárcel por crear material abusivo generado por IA a partir de sus pacientes infantiles.
Más recientemente, el Departamento de Justicia de EE.UU. anunció la detención de Steven Anderegg, de 42 años en Wisconsin por crear presuntamente más de 13.000 imágenes abusivas de menores generadas por IA.
Solucionar estos problemas es una gran prioridad para la industria de la IA, y se han planteado diversas estrategias, como:
- Actualización de la legislación para abordar específicamente el CSAM generado por IA.
- Mejorar la colaboración entre las empresas tecnológicas, las fuerzas de seguridad y las organizaciones de protección de la infancia.
- Desarrollar herramientas de detección de IA más sofisticadas para identificar y eliminar CSAM generados por IA.
- Aumentar la concienciación pública sobre el daño causado por todas las formas de CSAM, incluidos los contenidos generados por IA.
- Proporcionar mejor apoyo y recursos a las víctimas de abusos, incluidas las afectadas por la manipulación de sus imágenes por parte de la IA.
- Aplicar procesos de selección más estrictos para los conjuntos de datos de entrenamiento de IA con el fin de evitar la inclusión de CSAM.
Hasta ahora, estas medidas han resultado ineficaces.
Para catalizar una mejora definitiva, habrá que abordar tanto la forma en que las abusivas imágenes generadas por IA pueden volar bajo el radar técnico mientras ocupan una zona gris en la legislación, como la forma en que pueden ser manipuladas.