Elon Musks xAI frigav Grok-1's AI-modelkode og -vægte og hånede OpenAI i processen.
Denne udgivelse via GitHub og BitTorrent giver forskere og udviklere over hele verden mulighed for at bygge og iterere med de 314 milliarder parametre - omkring 150 milliarder mere end GPT-3.
xAI har til formål at demokratisere adgangen til avanceret LLM-teknologi ved at levere en rå, uraffineret version af Grok-1, der er klar til at blive eksperimenteret med i enhver sammenhæng - også kommercielt.
░W░E░I░G░H░T░S░I░N░B░I░O░
- Grok (@grok) 17. marts 2024
Musk kunne selvfølgelig ikke modstå lidt (u)venlig drilleri om open-sourcing af Grok. ChatGPT X-kontoen kommenterede Groks indlæg ovenfor med "stjal hele min joke", hvortil Musk sagde: "Fortæl os mere om den "åbne" del af OpenAI ..."
Fortæl os mere om den "åbne" del af OpenAI ...
- Elon Musk (@elonmusk) 17. marts 2024
Musk og OpenAI's grundlæggere Sam Altman og Greg Brockman er fastlåst i en juridisk kamp og debat om OpenAI's dramatiske udvikling fra en non-profit open source-forskningsvirksomhed til en profitskabende del af Microsoft.
Grok er endnu en torn i øjet på OpenAI, som oplever pres fra flere fronter med den nylige udgivelse af Anthropics imponerende Claude 3 Opus og Googles Gemini. Selv Apple har meldt sig ind i LLM-kampen med sin Nyligt udgivet MM1.
Grok-1 er dog ikke umiddelbart klar og tilgængelig for AI-applikationer til samtale.
For det første er modellen ikke blevet finjusteret med specifikke instruktioner eller datasæt for at fungere optimalt i dialogsystemer. Det betyder, at det vil kræve en ekstra indsats og flere ressourcer at udnytte Grok-1's evner til sådanne opgaver, hvilket er en udfordring for dem, der er interesserede i at udvikle AI til samtaler.
Desuden betyder selve størrelsen på modellens vægte - hele 296 GB - at det kræver betydelige beregningsressourcer at køre modellen, herunder high-end hardware i datacenterklassen.
AI-samfundet forventer dog en potentiel indsats for at optimere Grok-1 gennem kvantisering, hvilket kan reducere modellens størrelse og beregningskrav og gøre den mere tilgængelig for andre end dem, der har generative AI-venlige rigge.
Grok-1 er virkelig open source
Et af de vigtigste aspekter af Grok-1's udgivelse er xAI's valg om at bruge Apache 2.0-licensen og dermed slutte sig til andre som Mistrals 7B.
I modsætning til nogle licenser, der pålægger mere restriktive betingelser for brug og distribution af softwaren, giver Apache 2.0-licensen bred frihed til, hvordan softwaren kan bruges, ændres og distribueres.
Enhver levedygtig open source-model truer med at udhule indtægterne for closed source-udviklere som OpenAI og Anthropic.
Grok-vægte er udgivet under Apache 2.0: https://t.co/9K4IfarqXK
Det er mere open source end andre open weights-modeller, som normalt kommer med begrænsninger i brugen.
Det er mindre open source end Pythia, Bloom og OLMo, som kommer med træningskode og reproducerbare datasæt. https://t.co/kxu2anrNiP pic.twitter.com/UeNew30Lzn
- Sebastian Raschka (@rasbt) 17. marts 2024
Dette omfatter kommercielle anvendelser, hvilket gør Grok-1 til et attraktivt grundlag for virksomheder og enkeltpersoner, der ønsker at bygge videre på eller integrere modellen i deres egne produkter og tjenester.
Ved at gøre Grok-1's vægte og arkitektur frit tilgængelige fremmer xAI i det store hele Musks vision om åben AI og konfronterer AI-samfundet som helhed.
OpenAI er sandsynligvis rystet af den seneste udvikling fra Anthropic, Google og nu xAI.
Te er ved at gøre sig klar til en eller anden form for GPT-5- eller Sora-udgivelse, som vil give dem overtaget igen.