Ilya Sutskever, cofundador e antigo cientista-chefe da OpenAI, anunciou o lançamento da sua nova empresa, a Safe Superintelligence Inc. (SSI).
Juntamente com os co-fundadores Daniel Gross da Y Combinator e o ex-engenheiro da OpenAI Daniel Levy, a Sutskever tem como objetivo resolver o que consideram ser o problema mais crítico no domínio da IA: desenvolver um sistema de IA superinteligente seguro e poderoso.
Sutskever acredita que a superinteligência da IA, um termo vago para a IA que iguala ou excede a inteligência humana, será possível dentro de dez anos.
O declaração da empresa, publicado por Sutskever no X, declara: "A superinteligência está ao nosso alcance. Construir uma superinteligência segura (SSI) é o problema técnico mais importante do nosso tempo. Criámos o primeiro laboratório de SSI do mundo, com um objetivo e um produto: uma superinteligência segura".
Estou a criar uma nova empresa: https://t.co/BG3K3SI3A1
- Ilya Sutskever (@ilyasut) 19 de junho de 2024
Os fundadores descrevem a SSI não só como a sua missão, mas também como o seu nome e todo o roteiro do produto.
"SSI é a nossa missão, o nosso nome e todo o nosso roteiro de produtos, porque é o nosso único objetivo. A nossa equipa, investidores e modelo de negócio estão todos alinhados para alcançar a SSI", lê-se na declaração.
Uma antítese da OpenAI?
Embora Sutskever e o diretor executivo da OpenAI, Sam Altman, tenham manifestado publicamente respeito mútuo, os acontecimentos recentes sugerem tensões subjacentes.
Sutskever foi fundamental para a tentativa de expulsão Altmanque mais tarde declarou estar arrependido. Sutskever demitiu-se formalmente em maio, depois de ter mantido um perfil público discreto que deixou os espectadores a pensar no seu paradeiro.
Após quase uma década, tomei a decisão de deixar OpenAI. A trajetória da empresa tem sido milagrosa, e estou confiante de que OpenAI construirá uma AGI segura e benéfica sob a direção de @sama, @gdb, @miramurati e agora, sob o...
- Ilya Sutskever (@ilyasut) 14 de maio de 2024
Este incidente e a saída de outros investigadores importantes, alegando preocupações de segurança na OpenAI, levantam questões sobre as prioridades e a direção da empresa.
A "equipa de superalinhamento" da OpenAI, encarregada de alinhar a IA com os valores e benefícios humanos, foi praticamente desmantelado depois de Sutskever e o seu colega investigador Jan Leike terem deixado a empresa este ano.
A decisão de Sutskever de sair parece resultar do seu desejo de prosseguir um projeto que se alinhe mais com a sua visão do futuro do desenvolvimento da IA - uma visão em que a OpenAI parece estar a falhar, à medida que se afasta da sua princípios fundadores.
IA que dá prioridade à segurança
Os riscos associados à IA são muito contestados.
Embora a humanidade tenha um impulso primordial de temer sistemas artificiais mais inteligentes do que nós - um sentimento totalmente justo - nem todos os investigadores de IA pensam que isso seja possível num futuro próximo.
No entanto, um ponto fundamental é que negligenciar os riscos agora pode ser devastador no futuro.
A SSI tenciona abordar a segurança em simultâneo com o desenvolvimento da IA: "Abordamos a segurança e as capacidades em simultâneo, como problemas técnicos a resolver através de engenharia revolucionária e descobertas científicas. Tencionamos fazer avançar as capacidades o mais rapidamente possível, assegurando simultaneamente que a nossa segurança se mantém sempre na vanguarda", explicam os fundadores.
Vamos perseguir a superinteligência segura num tiro certeiro, com um foco, um objetivo e um produto. Fá-lo-emos através de descobertas revolucionárias produzidas por uma pequena equipa de craques. Junte-se a nós: https://t.co/oYL0EcVED2
- Ilya Sutskever (@ilyasut) 19 de junho de 2024
Esta abordagem permite à SSI "escalar em paz", livre das distracções das despesas gerais de gestão, dos ciclos de produtos e das pressões comerciais de curto prazo.
"O nosso foco único significa que não há distracções devido a despesas gerais de gestão ou ciclos de produtos, e o nosso modelo de negócio significa que a segurança, a proteção e o progresso estão isolados das pressões comerciais a curto prazo", sublinha a declaração.
Reunir uma equipa de sonho
Para atingir os seus objectivos, a SSI está a reunir uma "equipa enxuta e empenhada, composta pelos melhores engenheiros e investigadores do mundo, dedicada a concentrar-se na SSI e nada mais".
"Somos uma empresa americana com escritórios em Palo Alto e Tel Aviv, onde temos raízes profundas e a capacidade de recrutar talentos técnicos de topo", refere o comunicado.
"Se é esse o seu caso, oferecemos-lhe a oportunidade de fazer o trabalho da sua vida e ajudar a resolver o desafio técnico mais importante da nossa era."
Com a SSI, mais um interveniente se junta ao campo em constante expansão da IA.
Será muito interessante ver quem se junta à SSI e, em particular, se há um forte movimento de talentos da OpenAI.