Google kondigde drie nieuwe modellen aan in de Gemini-familie en maakte ze beschikbaar als experimentele release om feedback van ontwikkelaars te verzamelen.
De release is een voortzetting van Google's iteratieve aanpak in plaats van direct naar Gemini 2.0 te springen. De experimentele modellen zijn verbeterde versies van Gemini 1.5 Pro en Gemini 1.5 Flash en een nieuwe, kleinere Gemini 1.5 Flash-8B.
Google's Product Lead, Logan Kilpatrick, zei dat Google experimentele modellen uitbrengt "om feedback te verzamelen en onze nieuwste updates in handen van ontwikkelaars te krijgen. Wat we leren van experimentele lanceringen informeert hoe we modellen op grotere schaal uitbrengen."
Google zegt dat de verbeterde Gemini 1.5 Pro een aanzienlijke verbetering is ten opzichte van de vorige versie, met verbeterde coderingsmogelijkheden en complexe promptverwerking. Gemini 1.5 modellen kunnen extreem lange contexten aan en kunnen fijnkorrelige informatie oproepen en beredeneren tot minstens 10M tokens. De experimentele modellen hebben echter een limiet van 1M token.
Gemini 1.5 Flash is het goedkopere model met lage latentie dat is ontworpen voor taken met hoge volumes en het samenvatten van multimodale invoer met een lange context. De eerste tests van de experimentele releases lieten zien dat de verbeterde Pro- en Flash-modellen de top van de LMSYS ranglijst bereikten.
Chatbot Arena update⚡!
De nieuwste Gemini (Pro/Flash/Flash-9b) zijn nu live, met meer dan 20K stemmen van de gemeenschap!
Hoogtepunten:
- Nieuw Gemini-1.5-Flash (0827) maakt een enorme sprong en klimt van #23 naar #6 overall!
- Nieuw Gemini-1.5-Pro (0827) laat sterke vooruitgang zien in coderen, wiskunde... https://t.co/6j6EiSyy41 pic.twitter.com/D3XpU0Xiw2- lmsys.org (@lmsysorg) 27 augustus 2024
Gemini Flash 8B
Toen Google de Gemini 1.5 technisch verslag eerder deze maand, toonde het een deel van het vroege werk van het Google DeepMind team aan een nog kleinere 8 miljard parameter variant van het Gemini 1.5 Flash model.
Het multimodale Gemini 1.5 Flash-8B experimentele model is nu beschikbaar om te testen. Uit benchmarktests blijkt dat het het lichtgewicht Gemma 2-9B model van Google en de aanzienlijk grotere Llama 3-70B van Meta verslaat.
Het idee achter Gemini 1.5 Flash-8B is om een extreem snel en zeer goedkoop model te hebben dat nog steeds multimodale mogelijkheden heeft. Google zegt dat het "intelligente agenten kan aandrijven die op grote schaal worden ingezet, waardoor realtime interacties met een grote gebruikersgroep mogelijk worden." Flash-8B is "bedoeld voor alles van multimodale gebruikssituaties met een hoog volume tot lange contexttaken voor samenvattingen."
Ontwikkelaars die op zoek zijn naar een lichtgewicht, goedkoop en snel multimodaal model met een 1M token context zullen waarschijnlijk meer enthousiast zijn over Gemini Flash-8B dan de verbeterde Flash en Pro modellen. Degenen die op zoek zijn naar meer geavanceerde modellen zullen zich afvragen wanneer we kunnen verwachten dat Google Gemini 1.5 Ultra uitbrengt.