Google annuncia Gemma, il suo LLM aperto che può essere eseguito localmente

26 febbraio 2024

Google ha rilasciato due modelli della sua famiglia di modelli leggeri e aperti chiamati Gemma.

Mentre i modelli Gemini di Google sono proprietari, o chiusi, i modelli Gemma sono stati rilasciati come "modelli aperti" e resi liberamente disponibili agli sviluppatori.

Google ha rilasciato i modelli Gemma in due dimensioni, 2B e 7B, con varianti pre-addestrate e ottimizzate per le istruzioni. Google sta rilasciando i pesi dei modelli e una suite di strumenti per gli sviluppatori, per adattare i modelli alle loro esigenze.

Google afferma che i modelli Gemma sono stati costruiti utilizzando la stessa tecnologia che alimenta il suo modello di punta Gemini. Diverse aziende hanno rilasciato modelli 7B nel tentativo di fornire un LLM che mantenga le funzionalità utilizzabili, pur essendo potenzialmente in esecuzione a livello locale anziché nel cloud.

Llama-2-7B e Mistral-7B sono concorrenti di rilievo in questo settore, ma Google afferma che "Gemma supera modelli significativamente più grandi nei principali benchmark" e offre questo confronto come prova.

Risultati del benchmark di Gemma-7B rispetto a Llama-2-7B e Llama-2-12B. Fonte: Google

I risultati dei benchmark mostrano che Gemma batte persino la versione più grande 12B di Llama 2 in tutte e quattro le funzionalità.

L'aspetto davvero interessante di Gemma è la prospettiva di eseguirlo localmente. Google ha stretto una partnership con NVIDIA per ottimizzare Gemma per le GPU NVIDIA. Se avete un PC con una delle GPU RTX di NVIDIA, potete eseguire Gemma sul vostro dispositivo.

NVIDIA afferma di avere una base installata di oltre 100 milioni di GPU NVIDIA RTX. Questo rende Gemma un'opzione interessante per gli sviluppatori che stanno cercando di decidere quale modello leggero utilizzare come base per i loro prodotti.

NVIDIA aggiungerà anche il supporto per Gemma sul suo Chiacchierate con RTX che semplifica l'esecuzione di LLM su PC RTX.

Sebbene non sia tecnicamente open-source, sono solo le restrizioni d'uso contenute nel contratto di licenza a impedire ai modelli Gemma di possedere questa etichetta. Critiche ai modelli aperti indicano i rischi insiti nel mantenerli allineati, ma Google afferma di aver effettuato un ampio red-teaming per garantire che Gemma fosse al sicuro.

Google afferma di aver usato "un'ampia messa a punto e l'apprendimento di rinforzo dal feedback umano (RLHF) per allineare i nostri modelli regolati dalle istruzioni con comportamenti responsabili". Ha anche rilasciato un Responsible Generative AI Toolkit per aiutare gli sviluppatori a mantenere Gemma allineata dopo la messa a punto.

I modelli leggeri e personalizzabili come Gemma possono offrire agli sviluppatori più utilità di quelli più grandi come GPT-4 o Gemini Pro. La possibilità di eseguire LLM in locale senza i costi del cloud computing o delle chiamate API diventa ogni giorno più accessibile.

Con Gemma a disposizione degli sviluppatori, sarà interessante vedere la gamma di applicazioni basate sull'intelligenza artificiale che potrebbero presto essere eseguite sui nostri PC.

Partecipa al futuro


ISCRIVITI OGGI

Chiaro, conciso, completo. Per conoscere gli sviluppi dell'IA con DailyAI

Eugene van der Watt

Eugene proviene da un background di ingegneria elettronica e ama tutto ciò che è tecnologico. Quando si prende una pausa dal consumo di notizie sull'intelligenza artificiale, lo si può trovare al tavolo da biliardo.

×
 
 

PDF GRATUITO ESCLUSIVO
Rimanere all'avanguardia con DailyAI


 

Iscriviti alla nostra newsletter settimanale e ricevi l'accesso esclusivo all'ultimo eBook di DailyAI: 'Mastering AI Tools: La tua guida 2024 per una maggiore produttività".



 
 

*Iscrivendosi alla nostra newsletter si accetta la nostra Informativa sulla privacy e il nostro Termini e condizioni