Tre AI-modeller lansert i løpet av 24 timer, og Metas Llama 3 følger etter

10. april 2024

  • Google, OpenAI og Mistral lanserte modeller i løpet av få timer
  • Metas Llama 3 og OpenAIs GPT-5 kommer senere i år
  • AI-modeller sprer seg i både åpen og lukket kildekode
AI-modeller

Google, OpenAI og Mistral har lansert nye versjoner av sine banebrytende AI-modeller i løpet av bare 12 timer. 

Meta er også på vei med sin kommende Llama 3-modell, og OpenAIs etterlengtede GPT-5 er på trappene. 

Det som startet som en nisjekategori dominert av ChatGPT, oversvømmes nå av alternativer som går på tvers av Big Tech og skillet mellom åpen og lukket kildekode.

Google Gemini Pro 1.5

Googles Gemini Pro 1.5 gjorde det første utslaget, og introduserte fremskritt i forståelsen av lange kontekster som utfordrer Claude 3 Opus, som har essene i den kategorien. 

Gemini Pro 1.5 kan behandle opptil 1 million tokens, og kan dermed håndtere store mengder informasjon samtidig, inkludert 700 000 ord, en times video eller 11 timers lyd. 

Mixture-of-Experts-arkitekturen (MoE) forbedrer effektiviteten og ytelsen ved å bruke spesialiserte modeller for spesifikke oppgaver.

Googles utvalg av Gemini-modeller er ganske komplekst, men dette er deres mest kapable modell for typiske oppgaver. 

Google lar også utviklere sende 50 gratis forespørsler til API-et hver dag, noe som en person på X anslo ville koste opptil $1 400.

For øyeblikket er Gemini 1.5 Pro tilgjengelig i 180 land.

Ny versjon av GPT-4 Turbo

OpenAI lanserte deretter en ny versjon, GPT-4 Turbo, med overlegen matematikk og synsprosessering. 

I henhold til et X-innlegg er "GPT-4 Turbo med Vision nå generelt tilgjengelig i API-et. Vision-forespørsler kan nå også bruke JSON-modus og funksjonsanrop." 

OpenAI forventer å lansere GPT -5 snart, i tillegg til tekst-til-videomodellen Sora, som ikke har noen nevneverdige konkurrenter akkurat nå (men det vil endre seg). 

Mixtral 8x22B

Den kanskje største overraskelsen kom imidlertid fra Mistralsom dristig publiserte sin Mixtral 8x22B-modell som en fritt nedlastbar 281 GB-fil via torrent. 

Med imponerende 176 milliarder parametere og en kontekstlengde på 65 000 tokens forventes denne åpen kildekode-modellen på Apache 2.0-lisens å utkonkurrere Mistrals tidligere Mixtral 8x7B-modell, som allerede hadde overgått konkurrenter som Llama 2 70B i ulike benchmarks. 

Mixtral 8x22Bs avanserte MoE-arkitektur muliggjør effektiv beregning og forbedret ytelse i forhold til tidligere iterasjoner. 

Meta Llama 3 er på vei

For ikke å bli etterlatt, tyder rapporter på at Meta kan lansere en liten versjon av sin etterlengtede Llama 3-modell allerede neste uke, med den fullstendige open source-modellen fortsatt planlagt til juli. 

Llama 3 forventes å komme i ulike størrelser, fra svært små modeller som kan konkurrere med Claude Haiku eller Gemini Nano, til større, fullt responsive og resonnerende modeller som kan konkurrere med GPT-4 eller Claude 3 Opus.

Modellmultiplikasjon

Et generativt AI-økosystem som en gang var dominert av ChatGPT, oversvømmes nå av alternativer.

Så godt som alle de store teknologiselskapene er involvert, enten direkte eller gjennom betydelige investeringer. Og med hver aktør som melder seg på i kampen, blir håpet om at én fraksjon skal dominere markedet stadig mindre. 

Vi ser nå også at gapet mellom lukkede modeller fra OpenAI, Anthropic, Google osv. og lukkede alternativer fra Mistral, Meta og andre blir stadig mindre.

Åpen kildekode-modeller er fortsatt ganske utilgjengelige for den brede befolkningen, men også dette vil sannsynligvis endre seg. 

Så representerer noen av disse modellene et reelt fremskritt innen maskinlæring, eller bare mer av det samme, men bedre? Det kommer an på hvem du spør.

Noen, som Elon Musk, spår at AI vil overgå menneskelig intelligens i løpet av et år.

Andre, som Meta chief scientist Yann LeCun, hevder at AI ligger milevis bak oss når det gjelder robuste mål på intelligens.

LeCun forklart i februar om dagens LLM-er: "Så i bunn og grunn kan de ikke finne opp nye ting. De kommer til å gulpe opp omtrent det de har fått opplæring i fra offentlige data, noe som betyr at du kan finne det på Google. Folk har sagt: 'Herregud, vi må regulere LLM-er fordi de kommer til å bli så farlige'. Det er bare ikke sant."

Meta har som mål å skape "objektdrevet" kunstig intelligens som i større grad forstår verden og forsøker å planlegge og resonnere rundt den. 

"Vi jobber hardt med å finne ut hvordan vi kan få disse modellene til ikke bare å snakke, men faktisk resonnere, planlegge ... å ha hukommelse." forklarte Joelle Pineau, visepresident for AI-forskning hos Meta.

OpenAIs Chief Operating Officer, Brad Lightcap, sa også at selskapet fokuserer på å forbedre AI-enes evne til å resonnere og håndtere mer komplekse oppgaver. 

"Vi kommer til å se kunstig intelligens som kan ta på seg mer komplekse oppgaver på en mer sofistikert måte", sa han på et arrangement nylig. "Jeg tror at vi over tid ... vil se at modellene går mot lengre og mer komplekse oppgaver, og det krever implisitt en forbedring av evnen til å resonnere."

Når sommeren 2024 nærmer seg, vil AI-miljøet og samfunnet for øvrig følge nøye med på hvilken banebrytende utvikling som kommer ut av laboratoriene til disse teknologigigantene. 

Det kommer til å bli et ganske fargerikt utvalg mot slutten av året.

Bli med i fremtiden


ABONNER I DAG

Tydelig, kortfattet og omfattende. Få et grep om AI-utviklingen med DagligAI

Sam Jeans

Sam er en vitenskaps- og teknologiskribent som har jobbet i ulike oppstartsbedrifter innen kunstig intelligens. Når han ikke skriver, leser han medisinske tidsskrifter eller graver seg gjennom esker med vinylplater.

×

GRATIS PDF EKSKLUSIV
Hold deg i forkant med DailyAI

Meld deg på vårt ukentlige nyhetsbrev og få eksklusiv tilgang til DailyAIs nyeste e-bok: "Mastering AI Tools: Din 2024-guide til økt produktivitet".

*Ved å abonnere på vårt nyhetsbrev aksepterer du vår Retningslinjer for personvern og vår Vilkår og betingelser