El CEO de DeepMind compara los riesgos de la IA con la crisis climática

24 de octubre de 2023

DeepMind AI

Demis Hassabis, CEO de Google DeepMind, argumentó que los riesgos de la IA deben tomarse tan en serio como la crisis climática, y la respuesta debe ser inmediata.

En vísperas de la Cumbre sobre Seguridad de la Inteligencia Artificial que se celebrará en el Reino Unido los días 1 y 2 de noviembre, Hassabis afirmó que el mundo no debe retrasar su respuesta a los retos que plantea la IA. 

"Debemos tomarnos los riesgos de la IA tan en serio como otros grandes retos mundiales, como el cambio climático", declaró Hassabis. 

 "La comunidad internacional tardó demasiado en coordinar una respuesta mundial eficaz a esto, y ahora estamos viviendo las consecuencias de ello. No podemos permitirnos el mismo retraso con la IA".

Hassabis se refiere al Grupo Intergubernamental de Expertos sobre el Cambio Climático (IPCC). 

Él y otros han abogado por un consejo regulador internacional independiente para la IA, similar al IPCC o al Organismo Internacional de Energía Atómica (OIEA) creada en 1957.

En 1955, el comisario Willard F. Libby habló de la energía nuclear: "Nuestro gran peligro es que este gran beneficio para la humanidad muera abortado por una regulación innecesaria".

Tras la creación del OIEA, hubo relativamente pocas catástrofes nucleares hasta Chernobil. Aún no sabemos cómo podría ser una "catástrofe de la IA". 

Equilibrar las ventajas y los riesgos de la IA

Aunque reconoció el potencial transformador de la IA en campos como la medicina y la ciencia, Hassabis también destacó las amenazas existenciales que plantea la tecnología, especialmente el desarrollo de sistemas superinteligentes o inteligencia general artificial (IAG). 

"Creo que tenemos que empezar con algo como el IPCC, que es un acuerdo científico y de investigación con informes, y partir de ahí", aconsejó Hassabis. 

"Me gustaría que existiera un equivalente del Cern para la seguridad de la IA, que investigara sobre este tema, pero a escala internacional. Y quizá algún día haya un equivalente del OIEA, que audite estas cosas".

DeepMind ha publicado numerosos trabajos sobre la seguridad de la IA, entre ellos un blog técnico en colaboración con varias universidades, que especifica que los modelos deben ser evaluados para detectar "riesgos extremos" antes de realizar cualquier formación. 

DeepMind también ha establecido pruebas experimentales de que la IA busca nuevos objetivos emergentes que se desvían impredeciblemente de las intenciones de sus desarrolladores.

Hassabis y representantes de otras grandes empresas de IA, como OpenAI, asistirán en noviembre a la Cumbre de Seguridad de la IA. El Gobierno británico ha publicado el calendario para el primer día del evento.

Únete al futuro


SUSCRÍBETE HOY

Claro, conciso y completo. Conozca los avances de la IA con DailyAI

Sam Jeans

Sam es un escritor de ciencia y tecnología que ha trabajado en varias startups de IA. Cuando no está escribiendo, se le puede encontrar leyendo revistas médicas o rebuscando en cajas de discos de vinilo.

×

PDF GRATUITO EXCLUSIVO
Adelántese con DailyAI

Suscríbase a nuestro boletín semanal y reciba acceso exclusivo al último eBook de DailyAI: 'Mastering AI Tools: Su guía 2024 para mejorar la productividad'.

*Al suscribirse a nuestro boletín de noticias, acepta nuestra política de privacidad. Política de privacidad y nuestro Condiciones generales