Google, OpenAI og Mistral har lansert nye versjoner av sine banebrytende AI-modeller i løpet av bare 12 timer.
Meta er også på vei med sin kommende Llama 3-modell, og OpenAIs etterlengtede GPT-5 er på trappene.
Det som startet som en nisjekategori dominert av ChatGPT, oversvømmes nå av alternativer som går på tvers av Big Tech og skillet mellom åpen og lukket kildekode.
Google Gemini Pro 1.5
Googles Gemini Pro 1.5 gjorde det første utslaget, og introduserte fremskritt i forståelsen av lange kontekster som utfordrer Claude 3 Opus, som har essene i den kategorien.
Vår neste generasjons AI-modell Gemini 1.5 Pro er nå tilgjengelig i offentlig forhåndsvisning på @GoogleCloud's #VertexAI plattform.
Det lange kontekstvinduet hjelper allerede bedrifter med å analysere store datamengder, bygge AI-drevne kundeserviceagenter og mye mer. → https://t.co/CLMN3wNmeP pic.twitter.com/RpRVUul3eg
- Google DeepMind (@GoogleDeepMind) 9. april 2024
Gemini Pro 1.5 kan behandle opptil 1 million tokens, og kan dermed håndtere store mengder informasjon samtidig, inkludert 700 000 ord, en times video eller 11 timers lyd.
Mixture-of-Experts-arkitekturen (MoE) forbedrer effektiviteten og ytelsen ved å bruke spesialiserte modeller for spesifikke oppgaver.
Googles utvalg av Gemini-modeller er ganske komplekst, men dette er deres mest kapable modell for typiske oppgaver.
Google lar også utviklere sende 50 gratis forespørsler til API-et hver dag, noe som en person på X anslo ville koste opptil $1 400.
For øyeblikket er Gemini 1.5 Pro tilgjengelig i 180 land.
Ny versjon av GPT-4 Turbo
OpenAI lanserte deretter en ny versjon, GPT-4 Turbo, med overlegen matematikk og synsprosessering.
I henhold til et X-innlegg er "GPT-4 Turbo med Vision nå generelt tilgjengelig i API-et. Vision-forespørsler kan nå også bruke JSON-modus og funksjonsanrop."
GPT-4 Turbo med Vision er nå generelt tilgjengelig i API-et. Vision-forespørsler kan nå også bruke JSON-modus og funksjonsanrop.https://t.co/cbvJjij3uL
Nedenfor finner du noen gode måter utviklere bygger med visjon. Send inn ditt svar 🧵
- OpenAI Developers (@OpenAIDevs) 9. april 2024
OpenAI forventer å lansere GPT -5 snart, i tillegg til tekst-til-videomodellen Sora, som ikke har noen nevneverdige konkurrenter akkurat nå (men det vil endre seg).
Mixtral 8x22B
Den kanskje største overraskelsen kom imidlertid fra Mistralsom dristig publiserte sin Mixtral 8x22B-modell som en fritt nedlastbar 281 GB-fil via torrent.
magnet:?xt=urn:btih:9238b09245d0d8cd915be09927769d5f7584c1c9&dn=mixtral-8x22b&tr=udp%3A%2F%https://t.co/2UepcMGLGd%3A1337%2Fannounce&tr=http%3A%2F%https://t.co/OdtBUsbeV5%3A1337%2Fannounce
- Mistral AI (@MistralAI) 10. april 2024
Med imponerende 176 milliarder parametere og en kontekstlengde på 65 000 tokens forventes denne åpen kildekode-modellen på Apache 2.0-lisens å utkonkurrere Mistrals tidligere Mixtral 8x7B-modell, som allerede hadde overgått konkurrenter som Llama 2 70B i ulike benchmarks.
Mixtral 8x22Bs avanserte MoE-arkitektur muliggjør effektiv beregning og forbedret ytelse i forhold til tidligere iterasjoner.
Meta Llama 3 er på vei
For ikke å bli etterlatt, tyder rapporter på at Meta kan lansere en liten versjon av sin etterlengtede Llama 3-modell allerede neste uke, med den fullstendige open source-modellen fortsatt planlagt til juli.
Llama 3 forventes å komme i ulike størrelser, fra svært små modeller som kan konkurrere med Claude Haiku eller Gemini Nano, til større, fullt responsive og resonnerende modeller som kan konkurrere med GPT-4 eller Claude 3 Opus.
Modellmultiplikasjon
Et generativt AI-økosystem som en gang var dominert av ChatGPT, oversvømmes nå av alternativer.
Så godt som alle de store teknologiselskapene er involvert, enten direkte eller gjennom betydelige investeringer. Og med hver aktør som melder seg på i kampen, blir håpet om at én fraksjon skal dominere markedet stadig mindre.
Vi ser nå også at gapet mellom lukkede modeller fra OpenAI, Anthropic, Google osv. og lukkede alternativer fra Mistral, Meta og andre blir stadig mindre.
Åpen kildekode-modeller er fortsatt ganske utilgjengelige for den brede befolkningen, men også dette vil sannsynligvis endre seg.
Så representerer noen av disse modellene et reelt fremskritt innen maskinlæring, eller bare mer av det samme, men bedre? Det kommer an på hvem du spør.
Noen, som Elon Musk, spår at AI vil overgå menneskelig intelligens i løpet av et år.
Andre, som Meta chief scientist Yann LeCun, hevder at AI ligger milevis bak oss når det gjelder robuste mål på intelligens.
LeCun forklart i februar om dagens LLM-er: "Så i bunn og grunn kan de ikke finne opp nye ting. De kommer til å gulpe opp omtrent det de har fått opplæring i fra offentlige data, noe som betyr at du kan finne det på Google. Folk har sagt: 'Herregud, vi må regulere LLM-er fordi de kommer til å bli så farlige'. Det er bare ikke sant."
Meta har som mål å skape "objektdrevet" kunstig intelligens som i større grad forstår verden og forsøker å planlegge og resonnere rundt den.
"Vi jobber hardt med å finne ut hvordan vi kan få disse modellene til ikke bare å snakke, men faktisk resonnere, planlegge ... å ha hukommelse." forklarte Joelle Pineau, visepresident for AI-forskning hos Meta.
OpenAIs Chief Operating Officer, Brad Lightcap, sa også at selskapet fokuserer på å forbedre AI-enes evne til å resonnere og håndtere mer komplekse oppgaver.
"Vi kommer til å se kunstig intelligens som kan ta på seg mer komplekse oppgaver på en mer sofistikert måte", sa han på et arrangement nylig. "Jeg tror at vi over tid ... vil se at modellene går mot lengre og mer komplekse oppgaver, og det krever implisitt en forbedring av evnen til å resonnere."
Når sommeren 2024 nærmer seg, vil AI-miljøet og samfunnet for øvrig følge nøye med på hvilken banebrytende utvikling som kommer ut av laboratoriene til disse teknologigigantene.
Det kommer til å bli et ganske fargerikt utvalg mot slutten av året.