A xAI de Elon Musk divulgou o código e os pesos do modelo de IA do Grok-1, provocando a OpenAI no processo.
Este lançamento através do GitHub e do BitTorrent permite que investigadores e programadores de todo o mundo construam e façam iterações com os seus 314 mil milhões de parâmetros - cerca de 150 mil milhões mais do que o GPT-3.
O objetivo da xAI é democratizar o acesso à tecnologia LLM avançada, fornecendo uma versão em bruto e não refinada do Grok-1, pronta para ser experimentada em qualquer capacidade - mesmo comercialmente.
░W░E░I░G░H░T░S░I░N░B░I░O░
- Grok (@grok) 17 de março de 2024
Musk, é claro, não resistiu a um pouco de brincadeira (in)amigável sobre o código aberto do Grok. A conta ChatGPT X comentou no post de Grok acima, "roubou a minha piada toda", ao que Musk gracejou, "Conta-nos mais sobre a parte "Open" do OpenAI ..."
Fale-nos mais sobre a parte "Aberta" da OpenAI ...
- Elon Musk (@elonmusk) 17 de março de 2024
Musk e os fundadores da OpenAI, Sam Altman e Greg Brockman, são envolvido numa batalha legal e debate sobre a progressão dramática da OpenAI de uma empresa de investigação de código aberto sem fins lucrativos para um braço lucrativo da Microsoft.
A Grok é mais um espinho no lado da OpenAI, que está a sofrer pressão de várias frentes com o recente lançamento do impressionante Claude 3 Opus da Anthropic e do Gemini da Google. Até a Apple entrou na luta contra o LLM com o seu MM1 recentemente lançado.
No entanto, o Grok-1 não está imediatamente pronto e acessível para aplicações de IA de conversação.
Por um lado, o modelo não foi afinado com instruções ou conjuntos de dados específicos para ter um desempenho ótimo em sistemas de diálogo. Isto significa que serão necessários esforços e recursos adicionais para aproveitar as capacidades do Grok-1 para tais tarefas, o que representa um desafio para os interessados em desenvolver IA de conversação.
Além disso, o tamanho dos pesos do modelo - uns robustos 296 GB - significa que a execução do modelo requer recursos computacionais substanciais, incluindo hardware de classe de centro de dados topo de gama.
No entanto, a comunidade de IA está a antecipar potenciais esforços para otimizar o Grok-1 através da quantização, o que poderia reduzir o tamanho do modelo e as exigências computacionais, tornando-o mais acessível para além daqueles que dispõem de equipamentos de IA generativa.
O Grok-1 é verdadeiramente de código aberto
Um dos aspectos mais importantes do lançamento do Grok-1 é a escolha da xAI em usar a licença Apache 2.0, juntando-se a empresas como O 7B do Mistral.
Ao contrário de algumas licenças que impõem condições mais restritivas à utilização e distribuição do software, a licença Apache 2.0 permite uma ampla liberdade na forma como o software pode ser utilizado, modificado e distribuído.
Todos os modelos viáveis de código aberto ameaçam reduzir as receitas dos criadores de código fechado, como a OpenAI e a Anthropic.
Os pesos Grok estão disponíveis sob Apache 2.0: https://t.co/9K4IfarqXK
É mais open source do que outros modelos de pesos abertos, que normalmente vêm com restrições de utilização.
É menos open source do que Pythia, Bloom e OLMo, que vêm com código de treino e conjuntos de dados reproduzíveis. https://t.co/kxu2anrNiP pic.twitter.com/UeNew30Lzn
- Sebastian Raschka (@rasbt) 17 de março de 2024
Isto inclui utilizações comerciais, tornando o Grok-1 uma base atractiva para empresas e indivíduos que pretendam desenvolver ou integrar o modelo nos seus próprios produtos e serviços.
De um modo geral, ao disponibilizar gratuitamente os pesos e a arquitetura do Grok-1, a xAI faz avançar a visão de Musk para uma IA aberta e confronta a comunidade de IA em geral.
A OpenAI está provavelmente abalada pelos recentes desenvolvimentos da Anthropic, da Google e agora da xAI.
TA comunidade está a preparar-se para algum tipo de lançamento do GPT-5 ou do Sora que lhes permita voltar a ter vantagem.