O colapso do superalinhamento da OpenAI: será possível recuperar a confiança?

18 de maio de 2024

  • OpenAI atrai controvérsia à medida que as suas equipas de segurança superalinhadas se desmoronam
  • Isto inclui a saída de Jan Leike e Ilya Sutskever
  • O diretor executivo Sam Altman poderá ter dificuldade em controlar a confiança e a moral da empresa
Notícias sobre IA

Ilya Sutskever e Jan Leike de OpenAIdemitiu-se esta semana, lançando uma sombra sobre o compromisso da empresa para com o desenvolvimento responsável da IA sob a direção do CEO Sam Altman.

Leike, em particular, não poupou palavras. "Nos últimos anos, a cultura e os processos de segurança passaram para segundo plano em relação aos produtos brilhantes", declarou num remate final, confirmando o mal-estar dos observadores OpenAIda UE em matéria de IA avançada.

Sutskever e Leike são a última entrada numa lista cada vez mais longa de mudanças de alto nível na OpenAI.

Desde novembro de 2023, quando Altman sobreviveu por pouco a uma tentativa de golpe de estado na administração, pelo menos cinco outros membros importantes da equipa de superalinhamento demitiram-se ou foram forçados a sair:

  • Daniel Kokotajlo, que se juntou a OpenAI em 2022, na esperança de orientar a empresa para o desenvolvimento responsável da inteligência artificial geral (AGI) - uma IA altamente capaz que satisfaz ou supera a nossa própria cognição - demitiu-se em abril de 2024, depois de perder a confiança na capacidade da liderança para "lidar responsavelmente com a AGI".
  • Leopold Aschenbrenner e Pavel Izmailov, membros da equipa de superalinhamento, foram alegadamente despedidos no mês passado por "fuga" de informação, mas OpenAI não apresentou qualquer prova de infração. As fontes internas especulam que foram visados por serem aliados de Sutskever.
  • Cullen O'Keefe, outro investigador em matéria de segurança, deixou o cargo em abril.
  • William Saunders demitiu-se em fevereiro mas, ao que parece, está vinculado a um acordo de não-dissociação para não falar das suas razões. 

Amid these developments, OpenAI ameaçou, alegadamente, retirar os direitos de participação dos trabalhadores se estes criticassem a empresa ou Altman ele próprio, segundo a Vox

Isso fez com que fosse difícil compreender verdadeiramente a questão em OpenAI, but As provas sugerem que as iniciativas de segurança e de alinhamento estão a falhar, se é que alguma vez foram sinceras.

OpenAIO enredo polémico da série "A" adensa-se

OpenAI, fundada em 2015 por Elon Musk e Sam AltmanA Comissão Europeia, que é uma empresa de investigação de fonte aberta e de desenvolvimento responsável de IA, estava totalmente empenhada na investigação de fonte aberta.

No entanto, à medida que a visão da empresa se foi expandindo nos últimos anos, deu por si a retirar-se para trás das portas fechadas. Em 2019, OpenAI transitou oficialmente de um laboratório de investigação sem fins lucrativos para uma entidade "com fins lucrativos limitados, alimentando preocupações sobre uma mudança no sentido da comercialização em detrimento da transparência.

Desde então, OpenAI protegeu a sua investigação e os seus modelos com acordos de confidencialidade e com a ameaça de acções judiciais contra os empregados que se atrevessem a falar. 

Outras controvérsias importantes na curta história da startup incluem:

  • Em 2019, OpenAI surpreendeu a comunidade de IA ao passar de um laboratório de investigação sem fins lucrativos para uma empresa "com fins lucrativos", marcando um afastamento afirmativo dos seus princípios fundadores. 
  • No ano passado, surgiram notícias de reuniões à porta fechada entre OpenAI e organizações militares e de defesa.
  • AltmanOs tweets erráticos de J. M. S., que se referem a uma governação mundial baseada na inteligência artificial, e que admitem um risco existencial, fazem de si próprio o piloto de um navio que já não consegue dirigir.
  • No mais grave golpe para AltmanSutskever fez parte de uma equipa de golpe de estado falhado na direção em novembro de 2023, que visava destituir o diretor executivo. Altman conseguiu agarrar-se ao poder, mostrando que está verdadeiramente ligado à empresa de uma forma que é difícil de separar, mesmo pela própria direção. 

Embora os dramas da direção e as crises dos fundadores não sejam invulgares em Silicon Valley, OpenAIO trabalho da Comissão Europeia, como eles próprios admitem, pode ser crucial para a sociedade global.

O público, as entidades reguladoras e os governos querem uma governação consistente e sem controvérsias na OpenAImas a curta e turbulenta história da empresa sugere tudo menos isso.

OpenAI está a tornar-se o anti-herói da IA generativa

Enquanto o diagnóstico de poltrona e o assassinato do carácter de Altman são irresponsáveis, a sua história relatada de manipulação e de busca de visões pessoais em sacrifício dos colaboradores e da confiança pública levanta questões incómodas.

Reflectindo este facto, as conversas em torno de Altman e a sua empresa têm vindo a tornar-se cada vez mais malvistos no X, no Reddit e no fórum do Y Combinator.

Embora os patrões da tecnologia sejam muitas vezes polarizadores, normalmente conquistam seguidores, como demonstra Elon Musk entre os tipos mais provocadores. Outros, como Microsoft CEO Satya NadellaA empresa, que é uma das maiores empresas do mundo, ganha respeito pela sua estratégia empresarial e pelo seu estilo de liderança controlado e maduro.

Reconheçamos também como outras startups de IA, como AnthropicA empresa, que é uma das maiores empresas do sector da IA generativa, consegue manter um perfil bastante discreto apesar das suas grandes realizações. OpenAIpor outro lado, mantém uma gravidade intensa e controversa que a mantém sob o olhar do público, sem beneficiar a sua imagem, nem a imagem da IA generativa como um todo. 

No fim de contas, devemos dizer as coisas como elas são. OpenAIcontribuiu para a sensação de que deixou de ser um ator de boa-fé no domínio da IA.

IDeixa o público a pensar se a IA generativa poderá corroer a sociedade em vez de a ajudar. Envia a mensagem de que a busca da IA é um assunto de portas fechadas, um jogo jogado pelas elites tecnológicas com pouca consideração pelas implicações mais alargadas.

O licenciamento moral da indústria tecnológica

A licença moral há muito que atormenta a indústria tecnológica, onde a nobreza proposta pela atual missão empresarial é utilizada para justificar compromissos éticos. 

Desde o mantra "move fast and break things" do Facebook até ao slogan "don't be evil" da Google, os gigantes da tecnologia têm invocado repetidamente a linguagem do progresso e do bem social, ao mesmo tempo que se envolvem em práticas questionáveis.

OpenAIA missão da empresa de investigar e desenvolver AGI "para benefício de toda a humanidade" convida talvez à última forma de licença moral.

A promessa de uma tecnologia que poderá resolver os maiores desafios do mundo e inaugurar uma era de prosperidade sem precedentes é sedutora. Apela às nossas esperanças e sonhos mais profundos, explorando o desejo de deixar um impacto duradouro e positivo no mundo.

Mas é aí que reside o perigo. Quando os riscos são tão elevados e as potenciais recompensas tão grandes, torna-se demasiado fácil justificar o corte de caminhos, o contornar de limites éticos e o ignorar de críticas em nome de um "bem maior" que nenhum indivíduo ou pequeno grupo pode definir, nem mesmo com todo o financiamento e investigação do mundo.

Esta é a armadilha que OpenAI arrisca-se a cair. Ao posicionar-se como o criador de uma tecnologia que beneficiará toda a humanidade, a empresa concedeu-se essencialmente um cheque em branco para prosseguir a sua visão por todos os meios necessários.

Então, o que é que podemos fazer em relação a tudo isto? Bem, falar é barato. Uma governação sólida, um diálogo progressivo contínuo e uma pressão constante para melhorar as práticas do sector são fundamentais. 

Quanto a OpenAI a pressão pública e a crítica mediática sobre OpenAI crescer, AltmanA posição da Comissão poderá tornar-se menos sustentável. 

Se ele se fosse embora ou fosse destituído, teríamos de esperar que algo de positivo preenchesse o imenso vazio que ele deixaria. 

Junte-se ao futuro


SUBSCREVER HOJE

Claro, conciso e abrangente. Fique a par dos desenvolvimentos da IA com DailyAI

Calças de ganga Sam

Sam é um escritor de ciência e tecnologia que trabalhou em várias startups de IA. Quando não está a escrever, pode ser encontrado a ler revistas médicas ou a vasculhar caixas de discos de vinil.

×

PDF GRATUITO EXCLUSIVO
Fique à frente com o DailyAI

Subscreva a nossa newsletter semanal e receba acesso exclusivo ao último livro eletrónico do DailyAI: 'Mastering AI Tools: Seu guia 2024 para aumentar a produtividade'.

*Ao subscrever a nossa newsletter, aceita a nossa Política de privacidade e o nosso Termos e condições