La industria de la IA debería aprender de la seguridad nuclear, según los expertos

6 de junio de 2023

seguridad nuclear

El desarrollo de la IA ha sido rápido, lo que significa que la regulación tiene que ponerse al día, y la gobernanza es en cierto modo una idea tardía.

Existen pocos procesos formales para garantizar la seguridad de la IA, y los investigadores afirman que corresponde a la industria cambiar esta situación.

Muchos líderes y figuras del sector han comparado la IA con la energía nuclear. Hay muchas similitudes - La IA crece rápidamente, plantea un riesgo potencialmente existencial y se complica por los asuntos exteriores, esta vez entre las superpotencias emergentes de la IA, Estados Unidos y China.

Pasaron décadas antes de que los ingenieros nucleares convencieran a la comunidad científica en general de la seguridad de los reactores nucleares. Los primeros reactores se construyeron a finales de los años 40 y principios de los 50, y no fue hasta la Ley de Energía Atómica estadounidense de 1954 cuando surgió cierto nivel de regulación. 

El gobierno estadounidense era consciente de los riesgos de la energía nuclear, pero la URSS puso en marcha su primer reactor civil a mediados de 1954, por lo que no perdió tiempo en construir el suyo. En 1955, el comisario Willard F. Libby dijo: "Nuestro gran peligro es que este gran beneficio para la humanidad muera abortado por una regulación innecesaria".

¿Le suena algo? Fue sólo el mes pasado que el CEO de OpenAI Sam Altman instó a la creación de un organismo internacional para la seguridad de la IA como el Organismo Internacional de la Energía Atómica (OIEA), fundado en 1957. Al igual que la energía nuclear, la gos gobiernos de todo el mundo están estudiando la forma de preservar las ventajas de la inteligencia artificial y, al mismo tiempo, regular sus riesgos. 

El OIEA era un componente autónomo de la ONU y actualmente cuenta con 174 Estados miembros. Después de 1957, hubo relativamente pocas catástrofes nucleares hasta Chernobil.

La IA debe aprender de la historia de la seguridad nuclear

Heidy Khlaaf, director de ingeniería de la consultora de ciberseguridad Rastro de bitsutilizado para evaluar y verificar la seguridad de las centrales nucleares. Recientemente declaró al MIT que las centrales nucleares requieren miles de documentos que certifiquen su seguridad, profundizando en los más pequeños matices de cada componente individual. 

Tras Chernóbil, la normativa nuclear se hizo extremadamente estricta. Planificar, autorizar y construir un reactor nuclear puede llevar 10 años o más, en parte porque el proceso se controla rigurosamente en cada momento. Khlaaf señala que esto no tiene nada que ver con los beneficios: la seguridad nuclear nace de un auténtico riesgo existencial. 

En cambio, las empresas de IA informan de sus modelos mediante simples "fichas" que esencialmente enumeran funciones. 

Además, el funcionamiento interno del modelo suele ser una "caja negra", lo que significa que los procesos de toma de decisiones están en gran medida cerrados a los observadores externos. 

Incluso ChatGPT, al contrario que el homónimo de OpenAI, es una caja negra, y las empresas de IA ya se han labrado la reputación de ser cautelosos sobre sus modelos y datos de entrenamiento. 

¿Imagina que los reactores nucleares fueran una "caja negra" y que sus promotores no dijeran al público cómo funcionan? 

El análisis de los riesgos de la IA debe ser sistemático 

Para mitigar los riesgos que líderes en IA como Altman admiten de buen grado, las empresas deben profundizar en sus estrategias de trazabilidad. Esto implica una supervisión rigurosa desde el principio del proceso de desarrollo de la IA. 

Khlaaf afirma: "Hay que tener una forma sistemática de analizar los riesgos. No se trata de un escenario en el que simplemente dices: 'Oh, esto podría pasar. Déjame escribirlo'". 

En la actualidad, no existe un proceso establecido para la evaluación de riesgos de la IA, pero ha habido algunos intentos de crearlo. 

Por ejemplo, DeepMind ha publicado recientemente un blog técnico en colaboración con varias universidades, especificando que los modelos deben ser evaluados para detectar "riesgos extremos" antes del entrenamiento. El documento propone dos estrategias:

  1. Evaluar el alcance de las "capacidades peligrosas" de un modelo que podrían utilizarse para amenazar la seguridad, ejercer influencia o eludir la supervisión humana.
  2. Evaluar el grado de probabilidad de que un modelo cause daños, por ejemplo, si corre el riesgo de no comportarse según lo previsto. 

Toby Shevlane, uno de los investigadores del proyecto, declaró: "Las empresas líderes en IA que están impulsando la frontera tienen la responsabilidad de estar atentas a los problemas emergentes y detectarlos a tiempo para poder abordarlos cuanto antes."

Si la IA debe aprender de la seguridad nuclear, la regulación temprana es fundamental, pero la complacencia a largo plazo es letal. Nadie sabe cómo sería una versión de Chernóbil o Fukushima basada en la IA, y nadie quiere averiguarlo.

Únete al futuro


SUSCRÍBETE HOY

Claro, conciso y completo. Conozca los avances de la IA con DailyAI

Sam Jeans

Sam es un escritor de ciencia y tecnología que ha trabajado en varias startups de IA. Cuando no está escribiendo, se le puede encontrar leyendo revistas médicas o rebuscando en cajas de discos de vinilo.

×

PDF GRATUITO EXCLUSIVO
Adelántese con DailyAI

Suscríbase a nuestro boletín semanal y reciba acceso exclusivo al último eBook de DailyAI: 'Mastering AI Tools: Su guía 2024 para mejorar la productividad'.

*Al suscribirse a nuestro boletín de noticias, acepta nuestra política de privacidad. Política de privacidad y nuestro Condiciones generales