Elon Musk intentou uma ação judicial contra a OpenAI e os seus co-fundadores, Sam Altman e Greg Brockman, por alegadamente terem violado o acordo que assinaram quando os três homens fundaram a OpenAI.
A ação judicial oferece um olhar interessante sobre a génese da empresa que se tornou líder no desenvolvimento de modelos de IA de última geração. O processo baseia-se nos dois principais objectivos da OpenAI que foram documentados no "Acordo de Fundação" da empresa.
Os três homens concordaram que a OpenAI "seria uma organização sem fins lucrativos que desenvolveria AGI para benefício da humanidade e não para uma empresa com fins lucrativos que procurasse maximizar os lucros dos accionistas".
Concordaram também que a OpenAI "seria de fonte aberta, equilibrando apenas considerações de segurança compensatórias, e não manteria a sua tecnologia fechada e secreta por razões comerciais proprietárias".
Musk temia, e continua a temer, que a procura lucrativa de AGI e o controlo exclusivo da tecnologia por empresas como a Google fossem prejudiciais para a sociedade humana.
A ideia subjacente ao acordo era que a OpenAI criaria uma AGI aberta e segura que estaria livremente disponível para a humanidade, eliminando assim o risco de empresas com fins lucrativos utilizarem a tecnologia em detrimento da humanidade.
A infração
Atualmente, o modelo de IA líder indiscutível é o GPT-4 da OpenAI, mas não há nada de remotamente aberto nele, apesar do nome da empresa que o desenvolveu. Ao contrário do GPT-3, a OpenAI nem sequer publicou um documento técnico que descreva em pormenor o funcionamento do GPT-4.
Apesar de o acordo de fundação referir que a empresa procuraria obter tecnologia de código aberto, apenas a OpenAI, e provavelmente a Microsoft, tem acesso ao código, aos pesos e aos dados de treino do GPT-4.
Gerir uma empresa como a OpenAI custa dinheiro, pelo que não é de admirar que cobre aos utilizadores a utilização dos seus produtos. Mas o seu acordo de licenciamento exclusivo com a Microsoft significa que os seus modelos são agora utilizados para gerar lucro para a Big Tech. Exatamente o oposto dos princípios fundadores com que Musk diz que todos concordaram.
A ação judicial alega que "a OpenAI, Inc. foi transformada numa subsidiária de facto de código fechado da maior empresa tecnológica do mundo: a Microsoft. Sob a sua nova direção, não está apenas a desenvolver, mas a aperfeiçoar uma AGI para maximizar os lucros da Microsoft, e não para benefício da humanidade".
Temos AGI?
O acordo de licenciamento da Microsoft só se aplica à tecnologia pré-AGI da OpenAI. Se se determinar que um modelo da OpenAI atingiu o nível de AGI, o acordo de licenciamento impede a Microsoft de ter acesso ao mesmo.
A ação judicial de Musk faz uma afirmação ousada ao dizer que "o GPT-4 é um algoritmo AGI", pelo que a Microsoft não deveria ter acesso a ele. A ação judicial pede que o tribunal decida que isto é verdade. Não sei bem como é que o juiz e o júri devem fazer isso na ausência de uma definição aceite pela indústria do que é exatamente a AGI.
O processo também confirma os rumores sobre o que os engenheiros da OpenAI têm estado a trabalhar. O processo afirma que "a OpenAI está atualmente a desenvolver um modelo conhecido como Q* (estrela Q) que tem uma pretensão ainda mais forte ao AGI".
Em última análise, é a direção da OpenAI que decide o que se qualifica como AGI ao abrigo do acordo de licenciamento da Microsoft. Após o Despedimento de Altman, recontratação e mudança de direçãoA decisão cabe agora aos novos membros da direção, que foram nomeados com a bênção da Microsoft.
Foi por isso que Ilya Sutskever foi afastado do conselho de administração e ficou discretamente preso numa sala das traseiras? Há meses que ninguém sabe nada dele? O que é que o Ilya viu?
Não espere que o novo conselho de administração se apresse a afirmar que a AGI foi alcançada, mesmo que seja esse o objetivo. objetivo expressamente declarado da empresa.
Medos da IA
Uma das motivações declaradas por detrás da ação judicial é o receio de Musk de que a AGI caia nas mãos erradas.
A ação judicial conta como Musk se encontrou com o cofundador da DeepMind Demis Hassabis em 2012 para discutir estes receios, alguns dos quais partilhados por Hassabis.
Afirma também que "após uma reunião com o Sr. Hassabis e os investidores da DeepMind, um dos investidores comentou que a melhor coisa que poderia ter feito pela raça humana era matar o Sr. Hassabis naquele momento".
Quando Musk discutiu os seus receios com o então diretor executivo da Google, Larry Page, este afirmou que uma IA superinteligente que substituísse os seres humanos seria apenas "a fase seguinte da evolução" e afirmou que Musk estava a ser um "especista" com as suas opiniões pró-humanas.
Estará Musk a ser excessivamente dramático, ou devemos preocupar-nos?
A ação judicial vale a pena ler se quiser ver os bastidores de como uma grande parte da indústria chegou onde está hoje. No entanto, não é provável que o caso seja resolvido tão cedo.
A OpenAI pode muito bem confirmar os receios de Musk em relação à IA e utilizar esse facto como a principal razão para não lançar os seus modelos como código aberto. Argumentar a procura de lucro por parte da empresa pode ser uma tarefa mais difícil para a equipa da OpenAI, que já tem equipa jurídica muito ocupada.