A Safe Superintelligence (SSI), uma empresa co-fundada pelo antigo cientista chefe da OpenAI, Ilya Sutskever, conseguiu um financiamento de $1 mil milhões apenas três meses após a sua fundação.
A empresa, cujo objetivo é desenvolver sistemas "seguros" de inteligência artificial geral (AGI) que ultrapassem a inteligência humana, atingiu uma avaliação de cerca de $5 mil milhões, apesar de não ter qualquer produto e de ter apenas dez empregados.
A ronda de financiamento, liderada por empresas de capital de risco de primeira linha, incluindo Andreessen Horowitz, Sequoia Capital, DST Global e SV Angel, mostra que as empresas de IA continuam a atrair muito dinheiro.
Desafia o ceticismo que rodeia o investimento no sector da IA.
Quando a IA generativa se tornou "mainstream" no final de 2022, as pessoas pensaram que iria mudar o mundo com um simples toque num interrutor.
Até certo ponto, sim, mas ainda é cedo para os investidores. AI cs empresas fundadas há apenas alguns meses atraíram milhares de milhões de dólares em dinheiro, mas o seu reembolso poderá demorar mais tempo do que o previsto, à medida que as empresas tentam rentabilizar os seus produtos.
Pondo tudo isso de lado, ainda há $1 mil milhões para o SSI. O próprio Sutskever disse quando descobriu que não teria problemas em arranjar dinheiro.
Ex-OpenAI cofundador Sutskever foi cofundador da SSI em junho, juntamente com Nat Friedman, Daniel Gross e Daniel Levy, um antigo investigador da OpenAI. Sutskever fazia parte de uma série de saídas de alto nível da OpenAI.
A empresa planeia utilizar os fundos recém-adquiridos para garantir recursos informáticos e expandir a sua equipa, com escritórios em Palo Alto, Califórnia, e Tel Aviv, Israel.
"Identificámos uma nova montanha para escalar, que é um pouco diferente daquela em que eu estava a trabalhar anteriormente", diz Sutskever disse ao Financial Times.
"Não estamos a tentar seguir o mesmo caminho mais depressa. Se fizermos algo diferente, então é possível fazer algo especial."
SSI: Um interveniente único no sector da IA
A missão da SSI contrasta com a de outros grandes intervenientes na IA, como a OpenAI, a Anthropic e a xAI de Elon Musk, que estão a desenvolver modelos com amplas aplicações comerciais e de consumo.
Em vez disso, a SSI está focada no que chama de "tiro certeiro para uma superinteligência segura".
Quando foi fundada, A SSI declarou, "A superinteligência está ao nosso alcance. Construir uma superinteligência segura (SSI) é o problema técnico mais importante do nosso tempo. Criámos o primeiro laboratório de SSI do mundo, com um objetivo e um produto: uma superinteligência segura."
A SSI planeia dedicar vários anos à investigação e desenvolvimento antes de lançar um produto no mercado.
"É importante para nós estarmos rodeados de investidores que compreendem, respeitam e apoiam a nossa missão, que é a de dar um tiro certeiro para uma superinteligência segura e, em particular, passar alguns anos a fazer I&D sobre o nosso produto antes de o colocar no mercado", Gross, Diretor Executivo da SSI, disse à Reuters.
Isto permite-lhes "escalar em paz", livres das pressões das despesas gerais de gestão, dos ciclos de produtos e das exigências comerciais a curto prazo.
Há quem questione se a "superinteligência segura" pode funcionar em termos conceptuais, mas esta abordagem única é bem-vinda num sector da IA dominado por modelos linguísticos.
É claro que o verdadeiro teste estará na capacidade da SSI para cumprir os seus objectivos elevados e enfrentar os desafios complexos do desenvolvimento de sistemas de IA seguros e superinteligentes.
Se for bem sucedida, esta pequena empresa terá certamente implicações de grande alcance para o futuro da IA e para o seu impacto na sociedade.