Elon Musks xAI offentliggjorde Grok-1s AI-modellkode og -vekter, og hånet OpenAI i prosessen.
Denne utgivelsen via GitHub og BitTorrent gjør det mulig for forskere og utviklere over hele verden å bygge og iterere med de 314 milliarder parameterne - rundt 150 milliarder flere enn GPT-3.
xAI har som mål å demokratisere tilgangen til avansert LLM-teknologi ved å tilby en rå, uraffinert versjon av Grok-1 som er klar for eksperimentering i enhver kapasitet - også kommersielt.
░W░E░I░G░H░T░S░I░N░B░I░O░
- Grok (@grok) 17. mars 2024
Musk kunne selvfølgelig ikke motstå litt (u)vennlig spøk om åpen sourcing av Grok. ChatGPT X-kontoen kommenterte Groks innlegg ovenfor: "Stjal hele vitsen min", hvorpå Musk spøkte: "Fortell oss mer om den "åpne" delen av OpenAI ..."
Fortell oss mer om den "åpne" delen av OpenAI ...
- Elon Musk (@elonmusk) 17. mars 2024
Musk og OpenAIs grunnleggere Sam Altman og Greg Brockman er låst i en juridisk kamp og debatt om OpenAIs dramatiske utvikling fra et non-profit forskningsselskap med åpen kildekode til en profittmaksimerende del av Microsoft.
Grok er nok en torn i øyet på OpenAI, som opplever press fra flere fronter med den nylige lanseringen av Anthropics imponerende Claude 3 Opus og Googles Gemini. Til og med Apple har meldt seg på i LLM-kampen med sin nylig utgitt MM1.
Grok-1 er imidlertid ikke umiddelbart klar og tilgjengelig for AI-samtaler.
For det første har modellen ikke blitt finjustert med spesifikke instruksjoner eller datasett for å fungere optimalt i dialogsystemer. Dette betyr at det vil kreve ekstra innsats og ressurser å utnytte Grok-1s evner til slike oppgaver, noe som utgjør en utfordring for dem som er interessert i å utvikle AI for samtaler.
I tillegg betyr størrelsen på modellens vekt - hele 296 GB - at det å kjøre modellen krever betydelige beregningsressurser, inkludert avansert maskinvare i datasenterklassen.
AI-fellesskapet forventer imidlertid at Grok-1 kan optimaliseres ved hjelp av kvantisering, noe som kan redusere modellens størrelse og beregningskrav, og gjøre den mer tilgjengelig for andre enn dem som har generative AI-vennlige rigger.
Grok-1 er virkelig åpen kildekode
Et av de viktigste aspektene ved Grok-1s lansering er xAIs valg om å bruke Apache 2.0-lisensen, i likhet med blant annet Mistrals 7B.
I motsetning til andre lisenser som pålegger mer restriktive betingelser for bruk og distribusjon av programvaren, gir Apache 2.0-lisensen stor frihet i hvordan programvaren kan brukes, modifiseres og distribueres.
Enhver levedyktig åpen kildekode-modell truer med å undergrave inntektene til utviklere med lukket kildekode, som OpenAI og Anthropic.
Grok-vekter er ute under Apache 2.0: https://t.co/9K4IfarqXK
Det er mer åpen kildekode enn andre åpne vektmodeller, som vanligvis kommer med bruksbegrensninger.
Det er mindre åpen kildekode enn Pythia, Bloom og OLMo, som leveres med treningskode og reproduserbare datasett. https://t.co/kxu2anrNiP pic.twitter.com/UeNew30Lzn
- Sebastian Raschka (@rasbt) 17. mars 2024
Dette inkluderer kommersiell bruk, noe som gjør Grok-1 til et attraktivt grunnlag for selskaper og enkeltpersoner som ønsker å bygge videre på eller integrere modellen i sine egne produkter og tjenester.
Ved å gjøre Grok-1s vekter og arkitektur fritt tilgjengelig, fremmer xAI Musks visjon om åpen AI og konfronterer AI-miljøet som helhet.
OpenAI er sannsynligvis rystet av den siste utviklingen fra Anthropic, Google og nå xAI.
Tsamfunnet forbereder seg på en slags GPT-5- eller Sora-utgivelse som vil se dem ta overtaket igjen.