Elon Musks xAI släppte Grok-1:s AI-modellkod och vikter och hånade OpenAI i processen.
Denna release via GitHub och BitTorrent gör det möjligt för forskare och utvecklare över hela världen att bygga och iterera med sina 314 miljarder parametrar - cirka 150 miljarder mer än GPT-3.
xAI syftar till att demokratisera tillgången till avancerad LLM-teknik genom att tillhandahålla en rå, oraffinerad version av Grok-1 som är redo för experiment i vilken kapacitet som helst - även kommersiellt.
░W░E░I░G░H░T░S░I░N░B░I░O░
- Grok (@grok) 17 mars 2024
Musk kunde naturligtvis inte motstå lite (o)vänligt skämtande om öppen sourcing av Grok. ChatGPT X-kontot kommenterade Groks inlägg ovan, "stal hela mitt skämt", till vilket Musk skämtade, "Berätta mer om den "öppna" delen av OpenAI ..."
Berätta mer om den "öppna" delen av OpenAI ...
- Elon Musk (@elonmusk) 17 mars 2024
Musk och OpenAI:s grundare Sam Altman och Greg Brockman är låst i en rättslig strid och debatt om OpenAI:s dramatiska utveckling från ett icke-vinstdrivande forskningsföretag med öppen källkod till en vinstdrivande del av Microsoft.
Grok är ytterligare en nagel i ögat på OpenAI, som upplever press från flera fronter med den senaste lanseringen av Anthropics imponerande Claude 3 Opus och Googles Gemini. Till och med Apple har gått med i LLM-bråket med sin nyligen släppt MM1.
Grok-1 är dock inte omedelbart redo och tillgänglig för konversationsbaserade AI-applikationer.
För det första har modellen inte finjusterats med specifika instruktioner eller dataset för att fungera optimalt i dialogsystem. Detta innebär att det kommer att krävas ytterligare ansträngningar och resurser för att utnyttja Grok-1:s kapacitet för sådana uppgifter, vilket utgör en utmaning för dem som är intresserade av att utveckla samtals-AI.
Dessutom innebär den stora storleken på modellens vikter - hela 296 GB - att det krävs betydande beräkningsresurser för att köra modellen, inklusive avancerad hårdvara i datacenterklass.
AI-samhället förväntar sig dock potentiella ansträngningar för att optimera Grok-1 genom kvantisering, vilket kan minska modellens storlek och beräkningskrav, vilket gör den mer tillgänglig än de som har generativa AI-vänliga riggar.
Grok-1 är verkligen öppen källkod
En av de viktigaste aspekterna av Grok-1:s lansering är xAI:s val att använda Apache 2.0-licensen och därmed ansluta sig till Mistrals 7B.
Till skillnad från vissa licenser som ställer mer restriktiva villkor för användning och distribution av programvaran, ger Apache 2.0-licensen stor frihet i hur programvaran kan användas, modifieras och distribueras.
Varje livskraftig modell för öppen källkod hotar att urholka intäkterna för utvecklare med sluten källkod som OpenAI och Anthropic.
Grok-vikter är utgivna under Apache 2.0: https://t.co/9K4IfarqXK
Det är mer öppen källkod än andra modeller med öppna vikter, som vanligtvis kommer med användningsbegränsningar.
Det är mindre öppen källkod än Pythia, Bloom och OLMo, som levereras med träningskod och reproducerbara dataset. https://t.co/kxu2anrNiP pic.twitter.com/UeNew30Lzn
- Sebastian Raschka (@rasbt) 17 mars 2024
Detta inkluderar kommersiella användningsområden, vilket gör Grok-1 till en attraktiv grund för företag och individer som vill bygga vidare på eller integrera modellen i sina egna produkter och tjänster.
Genom att göra Grok-1:s vikter och arkitektur fritt tillgängliga främjar xAI Musks vision om öppen AI och konfronterar AI-samhället i stort.
OpenAI är förmodligen skakat av den senaste utvecklingen från Anthropic, Google och nu xAI.
Tsamhället förbereder sig för någon form av GPT-5 eller Sora-release som kommer att se dem ta överhanden igen.