Tre AI-modeller udgivet inden for 24 timer med Metas Llama 3 på vej

10. april 2024
  • Google, OpenAI og Mistral udgav modeller i løbet af få timer
  • Meta's Llama 3 og OpenAI's GPT-5 lander senere på året
  • AI-modeller spredes i både åben og lukket form
AI-modeller

Google, OpenAI og Mistral har udgivet nye versioner af deres banebrydende AI-modeller inden for bare 12 timer. 

Meta er også klar til at deltage i festen med sin kommende Llama 3-model, og OpenAI's længe ventede GPT-5 er i støbeskeen. 

Det, der startede som en meget nichepræget kategori domineret af ChatGPT, er nu oversvømmet af alternativer, der overskrider Big Tech og skellet mellem open og closed source.

Google Gemini Pro 1.5

Googles Gemini Pro 1.5 gjorde det første stænk og introducerede fremskridt inden for forståelse af lange kontekster, der udfordrer Claude 3 Opus, som har esserne i den kategori. 

Med mulighed for at behandle op til 1 million tokens kan Gemini Pro 1.5 håndtere store mængder information samtidig, herunder 700.000 ord, en times video eller 11 timers lyd. 

Dens Mixture-of-Experts-arkitektur (MoE) forbedrer effektiviteten og ydeevnen ved at bruge specialiserede modeller til specifikke opgaver.

Googles liste over Gemini-modeller er ret kompleks, men dette er deres mest kompetente model til typiske opgaver. 

Google lader også udviklere foretage 50 gratis anmodninger til API'en dagligt, hvilket en person på X anslog ville koste op til $1.400.

I øjeblikket er Gemini 1.5 Pro tilgængelig i 180 lande.

Ny version af GPT-4 Turbo

OpenAI udgav derefter en ny version, GPT-4 Turbo, med bedre matematisk og visuel behandling. 

I henhold til et X-indlæg er "GPT-4 Turbo med Vision nu generelt tilgængelig i API'en. Vision-anmodninger kan nu også bruge JSON-tilstand og funktionskald." 

OpenAI forventer snart at udgive GPT -5 samt sin tekst-til-video-model Sora, som ikke har nogen nævneværdige konkurrenter lige nu (men det vil ændre sig). 

Mixtral 8x22B

Men den største overraskelse kom måske fra Mistralsom modigt offentliggjorde deres Mixtral 8x22B-model som en 281 GB-fil, der frit kunne downloades via torrent. 

Med imponerende 176 milliarder parametre og en kontekstlængde på 65.000 tokens forventes denne open source-model på Apache 2.0-licens at overgå Mistrals tidligere Mixtral 8x7B-model, som allerede havde overgået konkurrenter som Llama 2 70B i forskellige benchmarks. 

Mixtral 8x22B's avancerede MoE-arkitektur muliggør effektiv beregning og forbedret ydeevne i forhold til tidligere iterationer. 

Meta Llama 3 er på vej

For ikke at blive ladt i stikken tyder rapporter på, at Meta kan frigive en lille version af sin længe ventede Llama 3-model allerede i næste uge, mens den fulde open source-model stadig er planlagt til juli. 

Llama 3 forventes at komme i forskellige størrelser, fra meget små modeller, der konkurrerer med Claude Haiku eller Gemini Nano, til større, fuldt responsive og ræsonnerende modeller, der kan konkurrere med GPT-4 eller Claude 3 Opus.

Model-multiplikation

Et generativt AI-økosystem, der engang var domineret af ChatGPT, er nu oversvømmet af alternativer.

Stort set alle større teknologivirksomheder er involveret, enten direkte eller gennem store investeringer. Og med hver eneste aktør, der melder sig på banen, svinder håbet om, at én fraktion kan dominere markedet. 

Vi ser nu også, at kløften lukkes mellem closed source-modeller fra OpenAI, Anthropic, Google osv. og closed source-alternativer fra Mistral, Meta og andre.

Open source-modeller er stadig ret utilgængelige for den brede befolkning, men det vil sandsynligvis også ændre sig. 

Så repræsenterer nogen af disse modeller ægte fremskridt inden for maskinlæring, eller er det bare mere af det samme, men bedre? Det kommer an på, hvem man spørger.

Nogle, som Elon Musk, forudser, at AI vil overgå menneskelig intelligens inden for et år.

Andre, som Meta chief scientist Yann LeCun, hævder, at AI er milevidt bagud i forhold til alle robuste mål for intelligens.

LeCun forklaret i februar om de nuværende LLM'er: "Så dybest set kan de ikke opfinde nye ting. De kommer til at gurgle omtrent det, de er blevet trænet i, fra offentlige data, hvilket betyder, at du kan finde det på Google. Folk har sagt: 'Åh gud, vi er nødt til at regulere LLM'er, fordi de bliver så farlige'. Det er bare ikke sandt."

Meta har til formål at skabe "objektdrevet" AI, som i højere grad forstår verden og forsøger at planlægge og ræsonnere omkring den. 

"Vi arbejder hårdt på at finde ud af, hvordan vi kan få disse modeller til ikke bare at tale, men faktisk til at ræsonnere, planlægge ... at have hukommelse," forklarede Joelle Pineau, vicepræsident for AI-forskning hos Meta.

OpenAI's chief operating officer, Brad Lightcap, sagde også, at hans virksomhed fokuserer på at forbedre AI'ens evne til at ræsonnere og håndtere mere komplekse opgaver. 

"Vi vil begynde at se kunstig intelligens, der kan påtage sig mere komplekse opgaver på en mere sofistikeret måde", sagde han ved et arrangement for nylig. "Jeg tror, at vi med tiden ... vil se modellerne gå i retning af længere, mere komplekse opgaver, og det kræver implicit en forbedring af deres evne til at ræsonnere."

Når 2024 nærmer sig sommeren, vil AI-samfundet og samfundet som helhed følge nøje med i, hvilke banebrydende udviklinger der kommer ud af disse tech-giganters laboratorier. 

Det bliver et ganske farverigt udvalg, når året er omme.

Deltag i fremtiden


TILMELD DIG I DAG

Klar, kortfattet, omfattende. Få styr på AI-udviklingen med DailyAI

Sam Jeans

Sam er videnskabs- og teknologiforfatter og har arbejdet i forskellige AI-startups. Når han ikke skriver, kan han finde på at læse medicinske tidsskrifter eller grave i kasser med vinylplader.

×
 
 

GRATIS PDF EKSKLUSIVT
Vær på forkant med DailyAI


 

Tilmeld dig vores ugentlige nyhedsbrev og få eksklusiv adgang til DailyAI's seneste e-bog: 'Mastering AI Tools: Din 2024-guide til forbedret produktivitet'.



 
 

*Ved at tilmelde dig vores nyhedsbrev accepterer du vores Politik for beskyttelse af personlige oplysninger og vores Vilkår og betingelser