Los pedófilos utilizan la IA para generar imágenes de abusos a menores

28 de junio de 2023

AI Patreon

Una investigación de la BBC descubrió que los pedófilos están explotando la tecnología de IA para generar y distribuir imágenes realistas de abusos sexuales a menores.

Se suele acceder a estas imágenes ilícitas generadas por IA a través de sitios de intercambio de contenidos como Patreon. El Consejo Nacional de Jefes de Policía (CNPP) expresó su indignación, destacando la "escandalosa" incapacidad de algunas plataformas para asumir su "responsabilidad moral" a pesar de obtener cuantiosos beneficios. 

GCHQ, la agencia de inteligencia y ciberseguridad del gobierno británico, reaccionó al informe declarando: "Los delincuentes de abuso sexual infantil adoptan todas las tecnologías y algunos creen que el futuro del material de abuso sexual infantil está en el contenido generado por IA."

Para generar las imágenes se utiliza Stable Diffusion, una IA de generación de imágenes de código abierto. Stable Diffusion permite a los usuarios introducir palabras que describen la imagen deseada.

Un aspecto crítico es que una versión de Stable Diffusion es de código abierto bajo la licencia Apache 2.0, a diferencia de Mid Journey y DALL-E, que impiden a los usuarios utilizar las indicaciones para generar imágenes gráficas o ilícitas. Esto da rienda suelta a los creadores para crear casi cualquier imagen que deseen. 

La BBC descubrió casos en los que se utilizaba Stable Diffusion para crear representaciones hiperrealistas de abusos sexuales a menores. La policía británica ha confirmado que ya ha entrado en contacto con material ilegal generado por IA. 

La investigadora y periodista independiente Octavia Sheepshanks, que investigó el casocompartió sus hallazgos con la BBC a través de la organización benéfica para niños NSPCC. "Desde que las imágenes generadas por inteligencia artificial son posibles, se ha producido esta enorme avalancha... no se trata solo de niñas muy pequeñas, sino que [los pedófilos] hablan de niños pequeños", señaló. 

En otro caso, los usuarios aprovechaban una plataforma de porno en RV para crear avatares de mujeres menores de edad. Al parecer, un usuario tomó la foto de una menor real y la superpuso a una de las modelos.

La legislación británica trata las "pseudoimágenes" generadas por ordenador que muestran abusos sexuales a menores como si fueran imágenes reales, por lo que su posesión, publicación o transferencia es ilegal. 

Ian Critchley, responsable de protección de menores de la NSPCC, afirmó que aunque las imágenes "sintéticas" no representan a niños reales, pueden provocar daños reales. Advirtió de una posible escalada en las acciones de los delincuentes "del pensamiento, a lo sintético, al abuso real de un niño vivo".

¿Cómo creaban y distribuían las imágenes los pedófilos?

Según la investigación, el proceso de distribución de imágenes consta de 3 pasos:

  • Los pedófilos generan imágenes utilizando programas de inteligencia artificial.
  • Estas imágenes se promocionan en plataformas como Pixiv, un sitio web japonés para compartir imágenes.
  • En estas plataformas se proporcionan enlaces que dirigen a los clientes a imágenes más explícitas, a las que pueden acceder pagando en sitios como Patreon.

Muchos creadores de imágenes estaban activos en Pixiv, utilizado principalmente por artistas de manga y anime. 

Sin embargo, la plataforma está alojada en Japón, donde compartir caricaturas sexualizadas de menores no es ilegal, lo que permite a los creadores promocionar su trabajo mediante grupos y hashtags.

Pixiv prohibió todas las representaciones fotorrealistas de contenido sexual que implicaran a menores a partir del 31 de mayo. También declararon que habían reforzado sus sistemas de control y están dedicando más recursos a contrarrestar este tipo de contenidos.

Sheepshanks dijo a la BBC que se trata de "distribución a escala industrial". Además, los comentarios en Pixiv indican que algunos están ofreciendo material de abuso no generado por IA.

Muchas cuentas de Pixiv ofrecen enlaces a sus "contenidos no censurados" alojados en Patreon, una plataforma estadounidense de intercambio de contenidos valorada en unos $4bn (3.100 millones de libras).

Patreon cuenta con más de 250.000 creadores, entre ellos famosos, periodistas y escritores de renombre. La investigación descubrió cuentas de Patreon que vendían abiertamente imágenes infantiles obscenas generadas por IA, con precios que variaban según el tipo de material.

Estabilidad AI y Patreon reacciona

Una vez mostrado un ejemplo, Patreon confirmó que infringía sus políticas, y la cuenta fue eliminada rápidamente. 

Stable Diffusion, el generador de imágenes de IA utilizado en la creación de estas imágenes, se desarrolló gracias a una colaboración mundial en la que participaron académicos y empresas lideradas por Stability AI, con sede en el Reino Unido. Como ya se ha dicho, la versión de código abierto del software no tiene filtros, lo que permite producir cualquier imagen. 

Stability AI respondió reforzando su prohibición del uso indebido de su software con fines ilegales o inmorales, incluido el material de abuso sexual infantil (CSAM).

Declararon apoyar firmemente los esfuerzos de las fuerzas del orden para combatir el uso ilegal de sus productos.

Ian Critchley, del NPCC, expresó su preocupación por la posibilidad de que la afluencia de imágenes "sintéticas" o generadas por IA obstaculice el proceso de identificación de las víctimas reales de abusos. Dijo: "Crea una demanda adicional, en términos policiales y de aplicación de la ley, para identificar dónde un niño real, en cualquier parte del mundo, está siendo abusado en comparación con un niño artificial o sintético." 

Critchley añadió que la sociedad ha llegado a un "momento crucial" para determinar si Internet y la tecnología brindarán oportunidades o se convertirán en una fuente de mayores perjuicios.

La NSPCC se hizo eco de estos sentimientos, instando a las empresas tecnológicas a tomar medidas contra la alarmante velocidad a la que los agresores han adoptado las nuevas tecnologías. 

Anna Edmundson, responsable de política y asuntos públicos de la organización benéfica, argumentó que las empresas eran conscientes de estos riesgos potenciales pero no han tomado medidas sustanciales, y subrayó que no puede haber "más excusas para la inacción".

Un portavoz del gobierno declaró en respuesta: "El proyecto de ley sobre seguridad en línea exigirá a las empresas que tomen medidas proactivas para hacer frente a todas las formas de abuso sexual infantil en línea, incluida la captación de menores, el streaming en directo, el material de abuso sexual infantil y las imágenes prohibidas de menores, o se enfrentarán a enormes multas."

El Reino Unido Proyecto de ley sobre seguridad en línea se redactó principalmente antes de que la IA generativa "se generalizara", pero aún pretende controlar los casos de daños relacionados con la IA en línea. 

Aumenta la preocupación por las falsificaciones profundas

Esto llama aún más la atención sobre el papel de la IA en el engaño y la ciberdelincuencia. El auge de las deep fakes, imágenes, vídeo o audio ultrarrealistas generados por IA, ha suscitado multitud de problemas éticos y de seguridad.

Las falsificaciones profundas utilizan algoritmos de IA para extraer patrones de movimientos faciales, modulaciones de la voz y lenguaje corporal a partir de contenidos de audio o vídeo existentes. Con su análisis, la IA puede crear falsificaciones muy convincentes que son casi imposibles de distinguir de las auténticas.

Además, es probable que el abuso de menores generado por IA desafíe la legislación vigente en todo el mundo. Mientras que en el Reino Unido las imágenes ilícitas de menores generadas por IA reciben el mismo trato legal que las reales, puede que no ocurra lo mismo en otros países.

Los legisladores tienen dificultades para seguir el ritmo de la IA, que es mucho más ágil que los engorrosos procesos legislativos.

Mientras tanto, estafadores y delincuentes difuminan las fronteras entre lo que es real y lo que no, aprovechando las lagunas legales.

El primer caso sonado de fraude con ayuda de inteligencia artificial ocurrido en 2019 cuando los estafadores utilizaron IA para hacerse pasar por la voz de un CEO y convencer a un alto ejecutivo de que transfiriera 220.000 euros ($243.000), alegando que era para un pago urgente a un proveedor. El ejecutivo creyó que estaba hablando con el director general, pero en realidad estaba interactuando con un impostor.

A principios de este año, una imagen falsa de un explosión en el Pentágono circuló por las redes sociales, provocando una caída temporal de la bolsa estadounidense de 0,3%.

A muchos les preocupa que la IA se utilice para crear noticias falsas o contenidos difamatorios sobre figuras políticas. Los políticos ya están utilizando IA generada contenidos para reforzar sus campañas.

Además, se ha producido un aumento de la pornografía falsa no consentida, en la que los rostros de las personas se superponen a imágenes o vídeos explícitos sin consentimiento.

En Advertencia del FBI sobre la sextorsión con IA en junio, afirmando: "Los delincuentes utilizan tecnologías y servicios de manipulación de contenidos para explotar fotos y vídeos -generalmente capturados de la cuenta de una persona en las redes sociales, de Internet abierto o solicitados a la víctima- en imágenes de temática sexual que parecen reales en cuanto a su parecido con la víctima, y luego las difunden en las redes sociales, foros públicos o sitios web pornográficos. Muchas víctimas, entre las que se incluyen menores, no son conscientes de que sus imágenes han sido copiadas, manipuladas y difundidas hasta que alguien se lo comunica".

Un documental británico, Mi rubia GFexplora un caso real de porno vengativo profundamente falso que se apoderó de la vida de la escritora Helen Mort.

Empresas tecnológicas como Google, Twitter y Facebook están desarrollando herramientas de detección para identificar contenidos falsos profundos, pero a medida que la IA se vuelve más sofisticada, estos mecanismos podrían ser menos fiables.

Mientras se avanza, los individuos, las empresas y la sociedad en su conjunto deben mantenerse informados sobre los riesgos potenciales de la tecnología de falsificación profunda, que se ha destacado como uno de los riesgos más inminentes y acuciantes de la IA.

Únete al futuro


SUSCRÍBETE HOY

Claro, conciso y completo. Conozca los avances de la IA con DailyAI

Sam Jeans

Sam es un escritor de ciencia y tecnología que ha trabajado en varias startups de IA. Cuando no está escribiendo, se le puede encontrar leyendo revistas médicas o rebuscando en cajas de discos de vinilo.

×

PDF GRATUITO EXCLUSIVO
Adelántese con DailyAI

Suscríbase a nuestro boletín semanal y reciba acceso exclusivo al último eBook de DailyAI: 'Mastering AI Tools: Su guía 2024 para mejorar la productividad'.

*Al suscribirse a nuestro boletín de noticias, acepta nuestra política de privacidad. Política de privacidad y nuestro Condiciones generales