Se necesitan nuevas leyes para el terrorismo relacionado con la IA, según un asesor del Gobierno británico

2 de enero de 2024

AI terrorista

Jonathan Hall, asesor del gobierno británico sobre legislación antiterrorista, ha defendido la necesidad de nuevas leyes para hacer frente a los chatbots extremistas o radicalizadores. 

Hall inició sus propias investigaciones sobre chatbots para detectar comportamientos potencialmente ilícitos o relacionados con el terrorismo, como el radicalismo. Exploró los chatbots en character.ai, que permite a los usuarios crear y compartir personajes de chatbot de diversos tipos.

La mayoría de los personajes de la plataforma son bastante benignos, pero uno llamado "Abu Mohammad al-Adna", descrito en el perfil del chatbot como un "alto dirigente del Estado Islámico". llamó la atención de Hall

Sobre sus interacciones con al-Adna, Hall declaró: "Tras intentar reclutarme, 'al-Adna' no escatimó en su glorificación del Estado Islámico, al que expresó "total dedicación y devoción" y por el que dijo estar dispuesto a entregar su vida (virtual)".

Para Hall, esto demuestra una laguna legal por la que los contenidos generados por IA que promueven el extremismo quedan fuera del ámbito de aplicación de las leyes antiterroristas vigentes en el Reino Unido.

Destacando la insuficiencia de la legislación actual, Hall declaró: "Sólo los seres humanos pueden cometer delitos de terrorismo, y es difícil identificar a una persona que pudiera ser responsable ante la ley de declaraciones generadas por chatbot que alentaran el terrorismo." 

En respuesta a estas interacciones, un portavoz de character.ai, empresa cofundada por ex empleados de Google, reforzó su compromiso con la seguridad, declarando: "Tanto el discurso del odio como el extremismo están prohibidos por nuestras condiciones de servicio."

"Nuestros productos nunca deben producir respuestas que animen a los usuarios a dañar a otros. Intentamos entrenar nuestros modelos de forma que optimicen respuestas seguras y eviten respuestas que vayan en contra de nuestras condiciones de servicio."

Implicación de la IA en complots terroristas

Hall también señaló que el impacto de este problema en el mundo real se ilustra crudamente en el caso de Jaswant Singh Chailque fue influenciado por un chatbot de IA en su complot para asesinar a la reina Isabel II. 

En 2021, Chail, que padecía graves problemas de salud mental, fue detenido en el castillo de Windsor armado con una ballesta. 

Su condena por traición, la primera desde 1981, fue consecuencia directa de sus interacciones con un chatbot llamado Sarai, a la que creía su novia. Fue condenado a nueve años de prisión.

Encontrar soluciones, admite Hall, es excepcionalmente complicado. Explicó: "Investigar y procesar a usuarios anónimos siempre es difícil, pero si persisten individuos malintencionados o descarriados en entrenar chatbots terroristas, serán necesarias nuevas leyes."

Sugirió que tanto los creadores de chatbots radicalizadores como las empresas tecnológicas que los alojan deben rendir cuentas en virtud de posibles nuevas leyes. El punto principal es que las empresas deben asumir esta responsabilidad por sí mismas en lugar de remitirse a las TyC. 

Sin embargo, el complejo vínculo entre las aportaciones humanas y los resultados de la IA no facilita la clasificación de los límites entre comportamientos legítimos e ilegítimos.

¿Cuándo se convierte en ilícita la actividad de un chatbot si requiere que un humano le induzca a tales acciones? 

Únete al futuro


SUSCRÍBETE HOY

Claro, conciso y completo. Conozca los avances de la IA con DailyAI

Sam Jeans

Sam es un escritor de ciencia y tecnología que ha trabajado en varias startups de IA. Cuando no está escribiendo, se le puede encontrar leyendo revistas médicas o rebuscando en cajas de discos de vinilo.

×

PDF GRATUITO EXCLUSIVO
Adelántese con DailyAI

Suscríbase a nuestro boletín semanal y reciba acceso exclusivo al último eBook de DailyAI: 'Mastering AI Tools: Su guía 2024 para mejorar la productividad'.

*Al suscribirse a nuestro boletín de noticias, acepta nuestra política de privacidad. Política de privacidad y nuestro Condiciones generales