Max Tegmark, profesor del MIT, físico y cofundador del Future of Life Institute, ha expresado su preocupación por el incesante ritmo de desarrollo de la IA.
Sugiere que la intensa competencia entre las empresas tecnológicas hace menos probable una autorregulación sólida.
En apenas un año, grandes empresas como OpenAI y Google han lanzado al menos dos generaciones de modelos de IA.
GPT-4 supuso una enorme mejora con respecto a GPT-3.5, superando sus parámetros entre cinco y diez veces.
A principios de año, Tegmark encabezó una carta abierta en la que pedía una pausa de seis meses en el desarrollo de sistemas avanzados de IA.
La carta recibió el apoyo masivo de líderes de la industria, políticos y diversas figuras públicas, con más de 30.000 firmantes, entre ellos Elon Musk y el cofundador de Apple, Steve Wozniak.
La carta describía vívidamente los peligros potenciales del desarrollo desenfrenado de la IA. Instaba a los gobiernos a intervenir si los principales actores de la IA, como Google, OpenAI, Meta y Microsoft, no podían llegar a un consenso sobre cómo aprovechar las ventajas de la IA y mitigar al mismo tiempo sus riesgos.
El Centro para la Seguridad de la IA (CAIS) comparó los riesgos de la IA con una guerra nuclear
Tras esa primera carta, el CAIS emitió una declaración respaldada por numerosos líderes tecnológicos y académicos, en la que comparaba los riesgos sociales que plantea la IA con los de las pandemias y la guerra nuclear.
En Declaración de CAIS"Mitigar el riesgo de extinción por la IA debería ser una prioridad mundial junto a otros riesgos a escala social como las pandemias y la guerra nuclear".
Sin embargo, a pesar del sentimiento de que la autorregulación es necesaria hasta que entre en vigor la regulación, la industria tecnológica continuó en gran medida al mismo ritmo de avance de la IA.
Tegmark reflexionó sobre el impacto de la carta y las razones de su escaso éxito a la hora de detener el desarrollo de la IA, declarando a The GuardianSentí que, en privado, muchos de los líderes empresariales con los que hablé querían [una pausa], pero estaban atrapados en esta carrera a la baja unos contra otros. Así que ninguna empresa puede hacer una pausa por sí sola".
Sin embargo, Tegmark señaló que se están intensificando los debates en torno a una mayor concienciación política sobre la seguridad de la IA, señalando las audiencias del Senado de EE.UU., la primera de Chuck Schumer Foro AI Insighty en noviembre Cumbre mundial sobre seguridad de la IA en el Reino Unido.
De cara al futuro, Tegmark advirtió de que el desarrollo de una "inteligencia general de tipo divino" no es una amenaza lejana, y se refirió a algunos miembros de la comunidad de la IA que creen que su realización podría estar más cerca de lo que muchos prevén: OpenAI.
Tegmark concluyó subrayando la importancia de las normas de seguridad en el desarrollo de la IA y expresó su preocupación por los modelos de IA de código abierto, como la Llama 2 de Meta.
Haciendo un paralelismo con otras tecnologías potentes, advirtió: "La tecnología peligrosa no debe ser de código abierto, ya se trate de armas biológicas o de software".