Ilya Sutskever, cofundador y antiguo científico jefe de OpenAI, ha anunciado el lanzamiento de su nueva empresa, Safe Superintelligence Inc. (SSI).
Junto con sus cofundadores Daniel Gross, de Y Combinator, y Daniel Levy, exingeniero de OpenAI, Sutskever pretende abordar lo que consideran el problema más crítico en el campo de la IA: desarrollar un sistema de IA superinteligente seguro y potente.
Sutskever cree que la superinteligencia de la IA, un término vago para la IA que iguala o supera la inteligencia humana, será posible dentro de diez años.
En declaración de la empresapublicado por Sutskever en X, declara: "La superinteligencia está al alcance de la mano. Construir una superinteligencia segura (SSI) es el problema técnico más importante de nuestro tiempo. Hemos puesto en marcha el primer laboratorio SSI del mundo, con un objetivo y un producto: una superinteligencia segura".
Estoy creando una nueva empresa: https://t.co/BG3K3SI3A1
- Ilya Sutskever (@ilyasut) 19 de junio de 2024
Los fundadores describen SSI no sólo como su misión, sino también como su nombre y toda su hoja de ruta de productos.
"SSI es nuestra misión, nuestro nombre y toda nuestra hoja de ruta de productos, porque es nuestro único objetivo. Nuestro equipo, nuestros inversores y nuestro modelo de negocio están alineados para lograr SSI", reza el comunicado.
¿Una antítesis de OpenAI?
Aunque Sutskever y Sam Altman, CEO de OpenAI, han expresado públicamente su respeto mutuo, los últimos acontecimientos sugieren tensiones subyacentes.
Sutskever desempeñó un papel decisivo en la intento de expulsar Altmande la que más tarde declaró que se arrepentía. Sutskever dimitió formalmente en mayo, tras haber mantenido un perfil público bajo que dejó a los curiosos preguntándose por su paradero.
Después de casi una década, he tomado la decisión de dejar OpenAI. La trayectoria de la empresa ha sido nada menos que milagrosa, y confío en que OpenAI construirá una AGI segura y beneficiosa bajo la dirección de @sama, @gdb, @miramurati y ahora, bajo el...
- Ilya Sutskever (@ilyasut) 14 de mayo de 2024
Este incidente y la marcha de otros investigadores clave alegando problemas de seguridad en OpenAI plantean dudas sobre las prioridades y la dirección de la empresa.
El "equipo de superalineación" de OpenAI, encargado de alinear la IA con los valores y beneficios humanos, fue prácticamente desmantelado después de que Sutskever y su colega Jan Leike dejaran la empresa este año.
La decisión de Sutskever de marcharse parece deberse a su deseo de dedicarse a un proyecto que se ajuste más a su visión del futuro del desarrollo de la IA, una visión en la que OpenAI parece estar fracasando al desviarse de su objetivo. principios fundacionales.
Inteligencia artificial orientada a la seguridad
Los riesgos que rodean a la IA son muy controvertidos.
Aunque la humanidad tiene un impulso primario de temer a los sistemas artificiales más inteligentes que nosotros -un sentimiento totalmente justo-, no todos los investigadores de la IA creen que esto sea posible en un futuro próximo.
Sin embargo, un punto clave es que descuidar los riesgos ahora podría ser devastador en el futuro.
SSI pretende abordar la seguridad de forma simultánea al desarrollo de la IA: "Abordamos la seguridad y las capacidades de forma conjunta, como problemas técnicos que deben resolverse mediante avances científicos y de ingeniería revolucionarios. Planeamos hacer avanzar las capacidades lo más rápido posible, asegurándonos de que nuestra seguridad siempre va por delante", explican los fundadores.
Perseguiremos la superinteligencia segura en línea recta, con un enfoque, un objetivo y un producto. Lo haremos mediante avances revolucionarios producidos por un pequeño equipo agrietado. Únete a nosotros: https://t.co/oYL0EcVED2
- Ilya Sutskever (@ilyasut) 19 de junio de 2024
Este enfoque permite a SSI "escalar en paz", libre de las distracciones de los gastos generales de gestión, los ciclos de los productos y las presiones comerciales a corto plazo.
"Nuestro enfoque singular significa que no nos distraen los gastos generales de gestión ni los ciclos de los productos, y nuestro modelo de negocio significa que la seguridad, la protección y el progreso están aislados de las presiones comerciales a corto plazo", subraya el comunicado.
Reunir un equipo de ensueño
Para lograr sus objetivos, SSI está reuniendo un "equipo ágil y agrietado de los mejores ingenieros e investigadores del mundo dedicados a centrarse en SSI y nada más".
"Somos una empresa estadounidense con oficinas en Palo Alto y Tel Aviv, donde tenemos profundas raíces y la capacidad de contratar a los mejores talentos técnicos", señala el comunicado.
"Si ése es usted, le ofrecemos la oportunidad de hacer el trabajo de su vida y ayudar a resolver el reto técnico más importante de nuestra era".
Con SSI, otro actor más se une al campo en constante expansión de la IA.
Será muy interesante ver quién se une a SSI, y en particular si hay un fuerte movimiento de talento procedente de OpenAI.