Safe Superintelligence (SSI), una startup cofundada por el antiguo científico jefe de OpenAI, Ilya Sutskever, ha conseguido $1 mil millones de financiación apenas tres meses después de su fundación.
La empresa, cuyo objetivo es desarrollar sistemas "seguros" de inteligencia general artificial (AGI) que superen la inteligencia humana, ha alcanzado una valoración aproximada de $5.000 millones a pesar de no tener ningún producto y contar con sólo diez empleados.
La ronda de financiación, liderada por empresas de capital riesgo de primer nivel como Andreessen Horowitz, Sequoia Capital, DST Global y SV Angel, demuestra que las empresas de IA siguen atrayendo grandes cantidades de dinero.
Desafía el escepticismo que rodea a la inversión en el sector de la IA.
Cuando la IA generativa se generalizó a finales de 2022, la gente pensó que cambiaría el mundo en un abrir y cerrar de ojos.
Lo ha hecho, hasta cierto punto, pero aún es pronto para los inversores. AI cas empresas fundadas hace apenas unos meses han atraído miles de millones de dólares en efectivo, pero devolverlos podría llevar más tiempo del previsto, ya que las empresas intentan monetizar sus productos.
Dejando todo eso a un lado, todavía hay $1 mil millones para SSI. Sutskever dijo a sí mismo cuando se encontró que no tendría problemas para recaudar dinero en efectivo.
Ex-OpenAI cofundador Sutskever cofundó SSI en junio junto a los inversores en IA en serie Nat Friedman, Daniel Gross y Daniel Levy, antiguo investigador de OpenAI. Sutskever formaba parte de una serie de salidas destacadas de OpenAI.
La empresa tiene previsto utilizar los fondos recién adquiridos para asegurar recursos informáticos y ampliar su equipo, con oficinas en Palo Alto (California) y Tel Aviv (Israel).
"Hemos identificado una nueva montaña que escalar que es un poco diferente de lo que estaba trabajando anteriormente", Sutskever declaró al Financial Times.
"No intentamos ir más rápido por el mismo camino. Si haces algo diferente, entonces es posible que hagas algo especial".
SSI: un actor único en el sector de la IA
La misión de SSI contrasta con la de otros grandes actores de la IA, como OpenAI, Anthropic y xAI de Elon Musk, que están desarrollando modelos con amplias aplicaciones para consumidores y empresas.
En cambio, la SSI está centrada en lo que denomina un "camino directo hacia una superinteligencia segura".
Cuándo se fundó, SSI declaróLa superinteligencia está al alcance de la mano. Construir una superinteligencia segura (SSI) es el problema técnico más importante de nuestro tiempo. Hemos puesto en marcha el primer laboratorio SSI directo del mundo, con un objetivo y un producto: una superinteligencia segura."
SSI tiene previsto dedicar varios años a la investigación y el desarrollo antes de sacar un producto al mercado.
"Para nosotros es importante estar rodeados de inversores que entiendan, respeten y apoyen nuestra misión, que es llegar directamente a la superinteligencia segura y, en particular, dedicar un par de años a la I+D de nuestro producto antes de sacarlo al mercado", Gross, CEO de SSI, a Reuters.
Esto les permite "escalar en paz", libres de las presiones de los gastos generales de gestión, los ciclos de los productos y las exigencias comerciales a corto plazo.
Algunos se preguntan si la "superinteligencia segura" puede funcionar conceptualmente, pero este enfoque único es bienvenido en un sector de la IA dominado por los modelos lingüísticos.
Por supuesto, la verdadera prueba estará en la capacidad de SSI para cumplir sus ambiciosos objetivos y superar los complejos retos que plantea el desarrollo de sistemas de IA superinteligentes y seguros.
Si tiene éxito, esta pequeña empresa tendrá implicaciones de gran alcance para el futuro de la IA y su impacto en la sociedad.