La xAI di Elon Musk ha rilasciato il codice e i pesi del modello di intelligenza artificiale di Grok-1, deridendo OpenAI.
Questo rilascio tramite GitHub e BitTorrent consente a ricercatori e sviluppatori di tutto il mondo di costruire e iterare con i suoi 314 miliardi di parametri - circa 150 miliardi in più rispetto a GPT-3.
xAI mira a democratizzare l'accesso alla tecnologia avanzata LLM, fornendo una versione grezza e non raffinata di Grok-1, pronta per essere sperimentata in qualsiasi ambito, anche quello commerciale.
░W░E░I░G░H░T░S░I░N░B░I░O░
- Grok (@grok) 17 marzo 2024
Musk, naturalmente, non ha resistito a un po' di (non) amichevole scambio di battute sull'open-sourcing di Grok. L'account ChatGPT X ha commentato il post di Grok qui sopra: "Mi ha rubato l'intera battuta", al che Musk ha risposto: "Parlaci ancora della parte "Open" di OpenAI...".
Ci parli della parte "Open" di OpenAI ...
- Elon Musk (@elonmusk) 17 marzo 2024
Musk e i fondatori di OpenAI Sam Altman e Greg Brockman sono bloccati in una battaglia legale e il dibattito sulla drammatica progressione di OpenAI da società di ricerca open-source senza scopo di lucro a braccio di Microsoft con scopo di lucro.
Grok è un'altra spina nel fianco di OpenAI, che sta subendo pressioni da più fronti con il recente rilascio dell'impressionante Claude 3 Opus di Anthropic e di Gemini di Google. Anche Apple si è unita alla mischia dei LLM con il suo MM1 appena rilasciato.
Tuttavia, Grok-1 non è immediatamente pronto e accessibile per le applicazioni di intelligenza artificiale conversazionale.
In primo luogo, il modello non è stato messo a punto con istruzioni o set di dati specifici per funzionare in modo ottimale nei sistemi di dialogo. Ciò significa che saranno necessari ulteriori sforzi e risorse per sfruttare le capacità di Grok-1 per tali compiti, ponendo una sfida a chi è interessato a sviluppare un'intelligenza artificiale conversazionale.
Inoltre, le dimensioni dei pesi del modello - ben 296 GB - fanno sì che l'esecuzione del modello richieda risorse di calcolo sostanziali, compreso un hardware di classe datacenter di fascia alta.
Tuttavia, la comunità dell'intelligenza artificiale sta anticipando potenziali sforzi per ottimizzare Grok-1 attraverso la quantizzazione, che potrebbe ridurre le dimensioni del modello e le richieste computazionali, rendendolo più accessibile al di là di coloro che dispongono di impianti di intelligenza artificiale generativa.
Grok-1 è veramente open-source
Uno degli aspetti più importanti del rilascio di Grok-1 è la scelta di xAI di utilizzare la licenza Apache 2.0, unendosi ad aziende del calibro di 7B di Mistral.
A differenza di alcune licenze che impongono condizioni più restrittive sull'uso e la distribuzione del software, la licenza Apache 2.0 consente un'ampia libertà nelle modalità di utilizzo, modifica e distribuzione del software.
Ogni modello open-source valido minaccia di erodere le entrate degli sviluppatori closed-source come OpenAI e Anthropic.
I pesi di Grok sono disponibili sotto Apache 2.0: https://t.co/9K4IfarqXK
È più open source di altri modelli di pesi aperti, che di solito prevedono restrizioni d'uso.
È meno open source di Pythia, Bloom e OLMo, che sono dotati di codice di addestramento e set di dati riproducibili. https://t.co/kxu2anrNiP pic.twitter.com/UeNew30Lzn
- Sebastian Raschka (@rasbt) 17 marzo 2024
Questo include usi commerciali, rendendo Grok-1 una base interessante per le aziende e gli individui che vogliono costruire o integrare il modello nei propri prodotti e servizi.
In generale, rendendo liberamente disponibili i pesi e l'architettura di Grok-1, xAI porta avanti la visione di Musk sull'IA aperta e si confronta con la comunità dell'IA in generale.
OpenAI è probabilmente scosso dai recenti sviluppi di Anthropic, Google e ora xAI.
Ta comunità si sta preparando per una sorta di rilascio di GPT-5 o Sora che li vedrà riprendere il sopravvento.