Ilya Sutskever, cofundador da OpenAI, lança a nova empresa Safe Superintelligence Inc.

20 de junho de 2024

  • Ilya Sutskever, antigo cofundador da OpenAI, lançou uma nova empresa
  • A Safe Superintelligence Inc. (SSI) pretende construir sistemas superinteligentes totalmente seguros
  • Isto acontece numa altura em que a OpenAI é criticada por colocar a segurança no banco de trás
SSI AI

Ilya Sutskever, cofundador e antigo cientista-chefe da OpenAI, anunciou o lançamento da sua nova empresa, a Safe Superintelligence Inc. (SSI). 

Juntamente com os co-fundadores Daniel Gross da Y Combinator e o ex-engenheiro da OpenAI Daniel Levy, a Sutskever tem como objetivo resolver o que consideram ser o problema mais crítico no domínio da IA: desenvolver um sistema de IA superinteligente seguro e poderoso.

Sutskever acredita que a superinteligência da IA, um termo vago para a IA que iguala ou excede a inteligência humana, será possível dentro de dez anos.

O declaração da empresa, publicado por Sutskever no X, declara: "A superinteligência está ao nosso alcance. Construir uma superinteligência segura (SSI) é o problema técnico mais importante do nosso tempo. Criámos o primeiro laboratório de SSI do mundo, com um objetivo e um produto: uma superinteligência segura".

Os fundadores descrevem a SSI não só como a sua missão, mas também como o seu nome e todo o roteiro do produto. 

"SSI é a nossa missão, o nosso nome e todo o nosso roteiro de produtos, porque é o nosso único objetivo. A nossa equipa, investidores e modelo de negócio estão todos alinhados para alcançar a SSI", lê-se na declaração.

Uma antítese da OpenAI?

Embora Sutskever e o diretor executivo da OpenAI, Sam Altman, tenham manifestado publicamente respeito mútuo, os acontecimentos recentes sugerem tensões subjacentes. 

Sutskever foi fundamental para a tentativa de expulsão Altmanque mais tarde declarou estar arrependido. Sutskever demitiu-se formalmente em maio, depois de ter mantido um perfil público discreto que deixou os espectadores a pensar no seu paradeiro. 

Este incidente e a saída de outros investigadores importantes, alegando preocupações de segurança na OpenAI, levantam questões sobre as prioridades e a direção da empresa. 

A "equipa de superalinhamento" da OpenAI, encarregada de alinhar a IA com os valores e benefícios humanos, foi praticamente desmantelado depois de Sutskever e o seu colega investigador Jan Leike terem deixado a empresa este ano. 

A decisão de Sutskever de sair parece resultar do seu desejo de prosseguir um projeto que se alinhe mais com a sua visão do futuro do desenvolvimento da IA - uma visão em que a OpenAI parece estar a falhar, à medida que se afasta da sua princípios fundadores

IA que dá prioridade à segurança

Os riscos associados à IA são muito contestados. 

Embora a humanidade tenha um impulso primordial de temer sistemas artificiais mais inteligentes do que nós - um sentimento totalmente justo - nem todos os investigadores de IA pensam que isso seja possível num futuro próximo. 

No entanto, um ponto fundamental é que negligenciar os riscos agora pode ser devastador no futuro.

A SSI tenciona abordar a segurança em simultâneo com o desenvolvimento da IA: "Abordamos a segurança e as capacidades em simultâneo, como problemas técnicos a resolver através de engenharia revolucionária e descobertas científicas. Tencionamos fazer avançar as capacidades o mais rapidamente possível, assegurando simultaneamente que a nossa segurança se mantém sempre na vanguarda", explicam os fundadores.

Esta abordagem permite à SSI "escalar em paz", livre das distracções das despesas gerais de gestão, dos ciclos de produtos e das pressões comerciais de curto prazo. 

"O nosso foco único significa que não há distracções devido a despesas gerais de gestão ou ciclos de produtos, e o nosso modelo de negócio significa que a segurança, a proteção e o progresso estão isolados das pressões comerciais a curto prazo", sublinha a declaração.

Reunir uma equipa de sonho

Para atingir os seus objectivos, a SSI está a reunir uma "equipa enxuta e empenhada, composta pelos melhores engenheiros e investigadores do mundo, dedicada a concentrar-se na SSI e nada mais". 

"Somos uma empresa americana com escritórios em Palo Alto e Tel Aviv, onde temos raízes profundas e a capacidade de recrutar talentos técnicos de topo", refere o comunicado. 

"Se é esse o seu caso, oferecemos-lhe a oportunidade de fazer o trabalho da sua vida e ajudar a resolver o desafio técnico mais importante da nossa era."

Com a SSI, mais um interveniente se junta ao campo em constante expansão da IA.

Será muito interessante ver quem se junta à SSI e, em particular, se há um forte movimento de talentos da OpenAI.

Junte-se ao futuro


SUBSCREVER HOJE

Claro, conciso e abrangente. Fique a par dos desenvolvimentos da IA com DailyAI

Calças de ganga Sam

Sam é um escritor de ciência e tecnologia que trabalhou em várias startups de IA. Quando não está a escrever, pode ser encontrado a ler revistas médicas ou a vasculhar caixas de discos de vinil.

×

PDF GRATUITO EXCLUSIVO
Fique à frente com o DailyAI

Subscreva a nossa newsletter semanal e receba acesso exclusivo ao último livro eletrónico do DailyAI: 'Mastering AI Tools: Seu guia 2024 para aumentar a produtividade'.

*Ao subscrever a nossa newsletter, aceita a nossa Política de privacidade e o nosso Termos e condições