Un profesor del MIT destaca los riesgos del intenso desarrollo de la IA

25 de septiembre de 2023

IA DEL MIT

Max Tegmark, profesor del MIT, físico y cofundador del Future of Life Institute, ha expresado su preocupación por el incesante ritmo de desarrollo de la IA. 

Sugiere que la intensa competencia entre las empresas tecnológicas hace menos probable una autorregulación sólida. 

En apenas un año, grandes empresas como OpenAI y Google han lanzado al menos dos generaciones de modelos de IA. 

GPT-4 supuso una enorme mejora con respecto a GPT-3.5, superando sus parámetros entre cinco y diez veces. 

A principios de año, Tegmark encabezó una carta abierta en la que pedía una pausa de seis meses en el desarrollo de sistemas avanzados de IA.

La carta recibió el apoyo masivo de líderes de la industria, políticos y diversas figuras públicas, con más de 30.000 firmantes, entre ellos Elon Musk y el cofundador de Apple, Steve Wozniak.

La carta describía vívidamente los peligros potenciales del desarrollo desenfrenado de la IA. Instaba a los gobiernos a intervenir si los principales actores de la IA, como Google, OpenAI, Meta y Microsoft, no podían llegar a un consenso sobre cómo aprovechar las ventajas de la IA y mitigar al mismo tiempo sus riesgos. 

El Centro para la Seguridad de la IA (CAIS) comparó los riesgos de la IA con una guerra nuclear

Tras esa primera carta, el CAIS emitió una declaración respaldada por numerosos líderes tecnológicos y académicos, en la que comparaba los riesgos sociales que plantea la IA con los de las pandemias y la guerra nuclear. 

En Declaración de CAIS"Mitigar el riesgo de extinción por la IA debería ser una prioridad mundial junto a otros riesgos a escala social como las pandemias y la guerra nuclear".

Sin embargo, a pesar del sentimiento de que la autorregulación es necesaria hasta que entre en vigor la regulación, la industria tecnológica continuó en gran medida al mismo ritmo de avance de la IA. 

Tegmark reflexionó sobre el impacto de la carta y las razones de su escaso éxito a la hora de detener el desarrollo de la IA, declarando a The GuardianSentí que, en privado, muchos de los líderes empresariales con los que hablé querían [una pausa], pero estaban atrapados en esta carrera a la baja unos contra otros. Así que ninguna empresa puede hacer una pausa por sí sola".

Sin embargo, Tegmark señaló que se están intensificando los debates en torno a una mayor concienciación política sobre la seguridad de la IA, señalando las audiencias del Senado de EE.UU., la primera de Chuck Schumer Foro AI Insighty en noviembre Cumbre mundial sobre seguridad de la IA en el Reino Unido.

De cara al futuro, Tegmark advirtió de que el desarrollo de una "inteligencia general de tipo divino" no es una amenaza lejana, y se refirió a algunos miembros de la comunidad de la IA que creen que su realización podría estar más cerca de lo que muchos prevén: OpenAI.

Tegmark concluyó subrayando la importancia de las normas de seguridad en el desarrollo de la IA y expresó su preocupación por los modelos de IA de código abierto, como la Llama 2 de Meta. 

Haciendo un paralelismo con otras tecnologías potentes, advirtió: "La tecnología peligrosa no debe ser de código abierto, ya se trate de armas biológicas o de software".

Únete al futuro


SUSCRÍBETE HOY

Claro, conciso y completo. Conozca los avances de la IA con DailyAI

Sam Jeans

Sam es un escritor de ciencia y tecnología que ha trabajado en varias startups de IA. Cuando no está escribiendo, se le puede encontrar leyendo revistas médicas o rebuscando en cajas de discos de vinilo.

×

PDF GRATUITO EXCLUSIVO
Adelántese con DailyAI

Suscríbase a nuestro boletín semanal y reciba acceso exclusivo al último eBook de DailyAI: 'Mastering AI Tools: Su guía 2024 para mejorar la productividad'.

*Al suscribirse a nuestro boletín de noticias, acepta nuestra política de privacidad. Política de privacidad y nuestro Condiciones generales