OpenAI CEO, Sam AltmanLa Comisión Europea considera que debería crearse una agencia internacional para supervisar los potentes modelos de inteligencia artificial que se desarrollen en el futuro, con el fin de garantizar su seguridad.
En una entrevista en el podcast All-In, Altman afirma que pronto veremos modelos de IA de vanguardia que serán mucho más potentes y potencialmente más peligrosos.
Altman dijo: "Creo que llegará un momento en un futuro no muy lejano, como si no estuviéramos hablando de dentro de décadas y décadas, en el que los sistemas de IA de vanguardia sean capaces de causar un daño global significativo".
En US y UE han ido aprobando leyes para regular la IA, pero Altman no cree que una legislación inflexible pueda seguir el ritmo de los rápidos avances de la IA. También se muestra crítico con US Estados que intentan regular la IA de forma independiente.
Hablando de sistemas avanzados de IA anticipados, Altman Y para este tipo de sistemas, de la misma manera que tenemos una supervisión global de las armas nucleares o de la biología sintética o de cosas que pueden tener un impacto muy negativo más allá del ámbito de un país.
Me gustaría ver algún tipo de agencia internacional que examinara los sistemas más potentes y garantizara pruebas de seguridad razonables".
Altman dijo que este tipo de supervisión internacional sería necesaria para evitar que una IA superinteligente pudiera "escapar y autoperfeccionarse recursivamente".
Altman reconoció que, aunque la supervisión de los potentes modelos de IA es necesaria, una regulación excesiva de la IA podría frenar el progreso.
El enfoque que sugiere es similar al de la regulación nuclear internacional. El Organismo Internacional de la Energía Atómica supervisa a los Estados miembros con acceso a cantidades significativas de material nuclear.
"Si la línea en la que sólo vamos a fijarnos en los modelos que se entrenan en ordenadores que cuestan más de 10.000 millones o más de 100.000 millones o lo que sea de dólares, me parecería bien. Habría alguna línea que estaría bien. Y no creo que eso suponga una carga reglamentaria para las nuevas empresas", explicó.
Altman explicó por qué consideraba que el enfoque de la agencia era mejor que intentar legislar la IA.
"La razón por la que he presionado para que se adopte un enfoque basado en las agencias para las cuestiones generales y no... escribirlas en leyes... en 12 meses, todo estará mal escrito... Y no creo que incluso si estas personas fueran verdaderos expertos mundiales, pudieran hacerlo bien. En 12 o 24 meses", dijo.
¿Cuándo saldrá a la venta GPT-5?
Cuando se le preguntó por la fecha de lanzamiento de la GPT-5, Altman se mostró previsiblemente poco receptivo, pero dejó entrever que tal vez no ocurra como pensamos.
"Nos tomamos nuestro tiempo a la hora de lanzar grandes modelos... Además, no sé si lo llamaremos GPT-5", dijo.
Altman señaló las mejoras iterativas OpenAI ha hecho en GPT-4 y dijo que éstas indican mejor cómo la empresa desplegará futuras mejoras.
Así que parece menos probable que veamos un lanzamiento de "GPT-5" y más probable que se añadan funciones adicionales a GPT-4.
Tendremos que esperar a OpenAIpara ver si obtenemos más pistas sobre lo que nos espera. ChatGPT cambios que podemos esperar.
Si desea escuchar la entrevista completa puede escúchelo aquí.