L'IA open source, in particolare i modelli Llama di Meta, ha suscitato un dibattito sui rischi di rendere accessibili a tutti i potenti modelli di IA.
La scorsa settimana, un gruppo di manifestanti si è radunato davanti agli uffici di Meta a San Francisco, condannando la decisione dell'azienda di rendere pubblici i suoi modelli di intelligenza artificiale.
Uno striscione recitava: "Non aprite la fonte del giorno del giudizio".
La protesta è stata pubblicata sul sito Forum sull'altruismo efficace e ha dichiarato le seguenti motivazioni: "I modelli di AI di frontiera di Meta sono fondamentalmente insicuri... Prima che rilasci modelli ancora più avanzati - che avranno capacità più pericolose - chiediamo a Meta di prendere sul serio il rilascio responsabile e di fermare la proliferazione irreversibile".
I manifestanti hanno anche creato un sito web qui, che cita Zuckerberg minimizza la sicurezza implicazioni dei rilasci di modelli open source.
In breve, aziende importanti come OpenAI e Google limitano i loro modelli linguistici di grandi dimensioni (LLM) all'accesso alle API. Sono "scatole nere" chiuse, cioè il pubblico non può vedere cosa succede all'interno del modello, ma solo quali sono gli input e gli output.
Meta, invece, ha fatto notizia offrendo i suoi modelli LLaMA apertamente alla comunità di ricerca sulle IA. Ciò consente alle persone esperte di tecnologia di adattare e sintonizzare i modelli per liberare il loro pieno potenziale, a differenza delle IA chiuse che sono programmate con barriere di sicurezza.
L'approccio di Meta allo sviluppo dell'intelligenza artificiale
Meta ha avuto un ruolo leggermente antagonista nello sviluppo dell'IA.
Mentre Google, OpenAI, Microsoft e startup come Anthropic e Inflection si affrettano a costruire IA chiuse e tenute sotto chiave, Meta ha scelto di lanciare i suoi modelli open source nella sfera pubblica come una granata viva.
AI open source certamente minaccia le strutture di mercato Microsoft, OpenAI, ecc. dipendono per monetizzare i loro prodotti.
Il modello Llama di Meta era notoriamente trapelato su 4Chan prima del suo rilascio ufficiale, e non è passato molto tempo prima che l'azienda facesse un ulteriore passo in avanti rilasciando Llama 2.
I manifestanti sostengono che le iniziative open source di Meta simboleggiano una "proliferazione irreversibile" di una tecnologia probabilmente pericolosa. Tuttavia, altri dissentono fermamente, sostenendo che l'IA open source è fondamentale per democratizzare la tecnologia e ottenere fiducia attraverso la trasparenza.
Holly Elmore, che ha guidato la protesta di venerdì fuori dal Meta, ha sottolineato che una volta che i pesi del modello che influenzano gli input e gli output del modello sono di dominio pubblico, i creatori perdono il controllo. I modelli open source possono essere modificati e reingegnerizzati con conseguenze non etiche o illegali.
Elmore, precedentemente associato al think tank Rethink Priorities, ha dichiarato: "Rilasciare pesi è una politica pericolosa... Più i modelli diventano potenti, più questa politica diventerà pericolosa".
L'IA open source rimarrà un argomento controverso, ma lasciare la tecnologia al controllo di pochi eletti non è forse un'alternativa favorevole.