Un informe del think tank RAND ha concluido que las actuales LLM no aumentan significativamente el riesgo de un ataque biológico por parte de un actor no estatal.
En octubre del año pasado, el mismo grupo de investigadores publicó un informe que planteaba la posibilidad de que los LLM "pudieran ayudar en la planificación y ejecución de un ataque biológico". Dicho informe señalaba que el riesgo de que esto ocurriera en la práctica requería más investigación.
El informe de octubre titulado "The Operational Risks of AI in Large-Scale Biological Attacks" (Los riesgos operativos de la IA en ataques biológicos a gran escala) fue criticado por algunos en el lado e/acc del pasillo de "la IA es peligrosa". El científico jefe de IA de Meta, Yann LeCun, afirmó que el informe simplificaba en exceso lo que se necesita para crear un arma biológica.
Tal vez un LLM pueda ahorrarle un poco de tiempo, en lugar de buscar instrucciones para la construcción de armas biológicas en un motor de búsqueda.
Pero entonces, ¿sabes cómo hacer el duro trabajo de laboratorio que se requiere? https://t.co/QnnZqUOP6X- Yann LeCun (@ylecun) 2 de noviembre de 2023
Estamos bien por ahora
El último informe RAND informe titulado "La inteligencia artificial actual no aumenta significativamente el riesgo de un ataque con armas biológicas" confirmó la evaluación de LeCun y quitó algo de viento de las velas de los que están en el lado altruista efectivo del pasillo.
Los investigadores, dirigidos por RAND El ingeniero Christopher A. Mouton, realizó un ejercicio de red-teaming para ver cómo un actor no estatal malintencionado podría utilizar un LLM para construir un arma biológica.
Se encargó a los participantes que planificaran un ataque biológico; algunos tenían acceso a Internet y a un LLM, mientras que otros sólo tenían acceso a Internet. No mencionaron los LLM utilizados.
El resultado fue que no había "ninguna diferencia estadísticamente significativa en la viabilidad de los planes generados con o sin ayuda de LLM". En otras palabras, ChatGPT no te va a decir nada que no puedas ya buscar en Google.
De hecho, sus resultados mostraron que los planes desarrollados por los equipos que utilizaban un LLM eran marginalmente menos viables que los que sólo tenían acceso a Internet. Resulta reconfortante que ningún equipo fuera capaz de idear un plan de bioataque que fuera realmente viable.
A medida que los modelos de IA se vuelvan más inteligentes, esto podría cambiar. Según Mouton, "el hecho de que los LLM actuales no sean capaces de cerrar la brecha de conocimientos necesaria para facilitar la planificación de ataques con armas biológicas no excluye la posibilidad de que puedan hacerlo en el futuro."
¿Pueden utilizarse las nuevas herramientas de inteligencia artificial -en concreto, los grandes modelos lingüísticos (LLM)- para lanzar un ataque biológico a gran escala?
Un nuevo estudio de RAND explora esta cuestión mediante un ejercicio de equipo rojo. He aquí los resultados. 🧵 https://t.co/foFmWltIuQ
- RAND (@RANDCorporation) 25 de enero de 2024
Se necesita más investigación
El informe reconocía que la investigación no determinaba la magnitud de esa laguna de conocimientos. Mouton afirmó que era importante seguir investigando sobre este tema "porque la tecnología de IA está al alcance de todos -incluidos los peligrosos actores no estatales- y avanza más rápido de lo que los gobiernos pueden seguir el ritmo."
Personas que impulsan el desarrollo de AGI dicen que el potencial de una IA superinteligente es real y factible. Pero muchas de esas personas serán las que ahora digan "te lo dije" y se burlen de la idea de que la IA pueda suponer un riesgo como el que investigó RAND.
Probablemente no necesitamos ir por ahí gritando "¡El cielo se está cayendo!", pero decir que una inteligencia artificial más inteligente que nosotros no permitirá potencialmente a los malos actores es también ignorante. Y peligroso.