Un informe de RAND afirma que los LLM no aumentan el riesgo de atentados biológicos

26 de enero de 2024

Un informe del think tank RAND ha concluido que las actuales LLM no aumentan significativamente el riesgo de un ataque biológico por parte de un actor no estatal.

En octubre del año pasado, el mismo grupo de investigadores publicó un informe que planteaba la posibilidad de que los LLM "pudieran ayudar en la planificación y ejecución de un ataque biológico". Dicho informe señalaba que el riesgo de que esto ocurriera en la práctica requería más investigación.

El informe de octubre titulado "The Operational Risks of AI in Large-Scale Biological Attacks" (Los riesgos operativos de la IA en ataques biológicos a gran escala) fue criticado por algunos en el lado e/acc del pasillo de "la IA es peligrosa". El científico jefe de IA de Meta, Yann LeCun, afirmó que el informe simplificaba en exceso lo que se necesita para crear un arma biológica.

Estamos bien por ahora

El último informe RAND informe titulado "La inteligencia artificial actual no aumenta significativamente el riesgo de un ataque con armas biológicas" confirmó la evaluación de LeCun y quitó algo de viento de las velas de los que están en el lado altruista efectivo del pasillo.

Los investigadores, dirigidos por RAND El ingeniero Christopher A. Mouton, realizó un ejercicio de red-teaming para ver cómo un actor no estatal malintencionado podría utilizar un LLM para construir un arma biológica.

Se encargó a los participantes que planificaran un ataque biológico; algunos tenían acceso a Internet y a un LLM, mientras que otros sólo tenían acceso a Internet. No mencionaron los LLM utilizados.

El resultado fue que no había "ninguna diferencia estadísticamente significativa en la viabilidad de los planes generados con o sin ayuda de LLM". En otras palabras, ChatGPT no te va a decir nada que no puedas ya buscar en Google.

De hecho, sus resultados mostraron que los planes desarrollados por los equipos que utilizaban un LLM eran marginalmente menos viables que los que sólo tenían acceso a Internet. Resulta reconfortante que ningún equipo fuera capaz de idear un plan de bioataque que fuera realmente viable.

A medida que los modelos de IA se vuelvan más inteligentes, esto podría cambiar. Según Mouton, "el hecho de que los LLM actuales no sean capaces de cerrar la brecha de conocimientos necesaria para facilitar la planificación de ataques con armas biológicas no excluye la posibilidad de que puedan hacerlo en el futuro."

Se necesita más investigación

El informe reconocía que la investigación no determinaba la magnitud de esa laguna de conocimientos. Mouton afirmó que era importante seguir investigando sobre este tema "porque la tecnología de IA está al alcance de todos -incluidos los peligrosos actores no estatales- y avanza más rápido de lo que los gobiernos pueden seguir el ritmo."

Personas que impulsan el desarrollo de AGI dicen que el potencial de una IA superinteligente es real y factible. Pero muchas de esas personas serán las que ahora digan "te lo dije" y se burlen de la idea de que la IA pueda suponer un riesgo como el que investigó RAND.

Probablemente no necesitamos ir por ahí gritando "¡El cielo se está cayendo!", pero decir que una inteligencia artificial más inteligente que nosotros no permitirá potencialmente a los malos actores es también ignorante. Y peligroso.

Únete al futuro


SUSCRÍBETE HOY

Claro, conciso y completo. Conozca los avances de la IA con DailyAI

Eugene van der Watt

Eugene es ingeniero electrónico y le encanta todo lo relacionado con la tecnología. Cuando descansa de consumir noticias sobre IA, lo encontrará jugando al billar.

×
 
 

PDF GRATUITO EXCLUSIVO
Adelántese con DailyAI


 

Suscríbase a nuestro boletín semanal y reciba acceso exclusivo al último eBook de DailyAI: 'Mastering AI Tools: Su guía 2024 para mejorar la productividad'.



 
 

*Al suscribirse a nuestro boletín de noticias, acepta nuestra política de privacidad. Política de privacidad y nuestro Condiciones generales