Google onthult 3 nieuwe experimentele Gemini-modellen

28 augustus 2024

  • Google heeft 3 experimentele Gemini-modellen vrijgegeven op zijn ontwikkelaarsforum
  • De modellen zijn de verbeterde Gemini 1.5 Pro en Gemini 1.5 Flash, en de nieuwe Gemini 1.5 Flash-8B.
  • De nieuwe modellen beklimmen nu al de ranglijsten met verbeterde wiskunde, codering en complexe promptverwerking.

Google kondigde drie nieuwe modellen aan in de Gemini-familie en maakte ze beschikbaar als experimentele release om feedback van ontwikkelaars te verzamelen.

De release is een voortzetting van Google's iteratieve aanpak in plaats van direct naar Gemini 2.0 te springen. De experimentele modellen zijn verbeterde versies van Gemini 1.5 Pro en Gemini 1.5 Flash en een nieuwe, kleinere Gemini 1.5 Flash-8B.

Google's Product Lead, Logan Kilpatrick, zei dat Google experimentele modellen uitbrengt "om feedback te verzamelen en onze nieuwste updates in handen van ontwikkelaars te krijgen. Wat we leren van experimentele lanceringen informeert hoe we modellen op grotere schaal uitbrengen."

Google zegt dat de verbeterde Gemini 1.5 Pro een aanzienlijke verbetering is ten opzichte van de vorige versie, met verbeterde coderingsmogelijkheden en complexe promptverwerking. Gemini 1.5 modellen kunnen extreem lange contexten aan en kunnen fijnkorrelige informatie oproepen en beredeneren tot minstens 10M tokens. De experimentele modellen hebben echter een limiet van 1M token.

Gemini 1.5 Flash is het goedkopere model met lage latentie dat is ontworpen voor taken met hoge volumes en het samenvatten van multimodale invoer met een lange context. De eerste tests van de experimentele releases lieten zien dat de verbeterde Pro- en Flash-modellen de top van de LMSYS ranglijst bereikten.

Gemini Flash 8B

Toen Google de Gemini 1.5 technisch verslag eerder deze maand, toonde het een deel van het vroege werk van het Google DeepMind team aan een nog kleinere 8 miljard parameter variant van het Gemini 1.5 Flash model.

Het multimodale Gemini 1.5 Flash-8B experimentele model is nu beschikbaar om te testen. Uit benchmarktests blijkt dat het het lichtgewicht Gemma 2-9B model van Google en de aanzienlijk grotere Llama 3-70B van Meta verslaat.

Het idee achter Gemini 1.5 Flash-8B is om een extreem snel en zeer goedkoop model te hebben dat nog steeds multimodale mogelijkheden heeft. Google zegt dat het "intelligente agenten kan aandrijven die op grote schaal worden ingezet, waardoor realtime interacties met een grote gebruikersgroep mogelijk worden." Flash-8B is "bedoeld voor alles van multimodale gebruikssituaties met een hoog volume tot lange contexttaken voor samenvattingen."

Ontwikkelaars die op zoek zijn naar een lichtgewicht, goedkoop en snel multimodaal model met een 1M token context zullen waarschijnlijk meer enthousiast zijn over Gemini Flash-8B dan de verbeterde Flash en Pro modellen. Degenen die op zoek zijn naar meer geavanceerde modellen zullen zich afvragen wanneer we kunnen verwachten dat Google Gemini 1.5 Ultra uitbrengt.

Doe mee met de toekomst


SCHRIJF JE VANDAAG NOG IN

Duidelijk, beknopt, uitgebreid. Krijg grip op AI-ontwikkelingen met DailyAI

Eugene van der Watt

Eugene heeft een achtergrond in elektrotechniek en houdt van alles wat met techniek te maken heeft. Als hij even pauzeert van het consumeren van AI-nieuws, kun je hem aan de snookertafel vinden.

×

GRATIS PDF EXCLUSIEF
Blijf voorop met DailyAI

Meld je aan voor onze wekelijkse nieuwsbrief en ontvang exclusieve toegang tot DailyAI's nieuwste eBook: 'Mastering AI Tools: Your 2024 Guide to Enhanced Productivity'.

* Door u aan te melden voor onze nieuwsbrief accepteert u onze Privacybeleid en onze Algemene voorwaarden