Il Dipartimento del Commercio degli Stati Uniti ha emanato una politica a favore dei modelli aperti, segno della posizione dell'amministrazione Biden-Harris su questo tema controverso.
I sostenitori dei modelli chiusi, come OpenAI e Google, parlano dei rischi dei modelli aperti, mentre altri, come Meta, sono impegnati in variazioni di IA open-source.
Il rapporto del DOC redatto dalla divisione della National Telecommunications and Information Administration (NTIA), abbraccia "l'apertura dell'intelligenza artificiale (IA), chiedendo al contempo un monitoraggio attivo dei rischi nei potenti modelli di IA".
Le argomentazioni contro la divulgazione dei modelli sono in genere legate al rischio di un doppio uso da parte di malintenzionati che potrebbero piegare i modelli alla loro volontà nefasta. La politica riconosce il rischio del doppio uso, ma afferma che i benefici superano i rischi.
"L'amministrazione Biden-Harris sta facendo tutto il possibile per massimizzare le promesse dell'IA, minimizzandone i rischi", ha dichiarato il Segretario al Commercio degli Stati Uniti Gina Raimondo.
"Il rapporto di oggi fornisce una tabella di marcia per un'innovazione responsabile dell'IA e per la leadership americana, abbracciando l'apertura e raccomandando come il governo degli Stati Uniti possa prepararsi e adattarsi alle potenziali sfide future."
Secondo il rapporto, il governo statunitense dovrebbe monitorare attivamente i potenziali rischi emergenti, ma dovrebbe astenersi dal limitare la disponibilità di modelli a pesi aperti.
I pesi aperti aprono le porte
Chiunque può scaricare l'ultima versione di Meta Modello Llama 3.1 405B e i suoi pesi. Anche se i dati di addestramento non sono stati resi disponibili, il fatto di avere i pesi offre agli utenti molte più opzioni rispetto a quelle che avrebbero avuto con GPT-4o o Claude 3,5 Sonetto ad esempio.
L'accesso ai pesi consente a ricercatori e sviluppatori di avere una visione migliore di ciò che accade sotto il cofano e di identificare e correggere distorsioni, errori o comportamenti inaspettati all'interno del modello.
Inoltre, è molto più facile per gli utenti mettere a punto i modelli per casi d'uso specifici, sia positivi che negativi.
Il rapporto osserva che "l'accessibilità offerta dai pesi aperti abbassa significativamente la barriera d'ingresso per la messa a punto dei modelli a fini sia benefici che dannosi. Gli attori avversi possono rimuovere le protezioni dai modelli aperti attraverso la messa a punto e poi distribuire liberamente il modello, limitando in ultima analisi il valore delle tecniche di mitigazione".
I rischi e i benefici dei modelli di IA aperti evidenziati dal rapporto includono:
- Sicurezza pubblica
- Considerazioni geopolitiche
- Problemi sociali
- Concorrenza, innovazione e ricerca
Il rapporto riconosce candidamente i rischi in ciascuna di queste aree, ma afferma che i benefici sono superiori se i rischi vengono gestiti.
Con un modello chiuso come il GPT-4o, dobbiamo tutti confidare che OpenAI stia facendo un buon lavoro con i suoi sforzi di allineamento e non stia nascondendo potenziali rischi. Con un modello di peso aperto, qualsiasi ricercatore può identificare le vulnerabilità di sicurezza in un modello o eseguire un audit di terze parti per garantire che il modello sia conforme alle normative.
Il rapporto afferma che "la disponibilità di pesi modello potrebbe consentire ai Paesi che destano preoccupazione di sviluppare ecosistemi avanzati di IA più solidi... e compromettere gli obiettivi di Controlli sui chip negli Stati Uniti."
Tuttavia, nella colonna positiva, rendere disponibili i pesi modello "potrebbe rafforzare la cooperazione con gli alleati e approfondire le nuove relazioni con i partner in via di sviluppo".
Il governo degli Stati Uniti è chiaramente convinto dell'idea di modelli di IA aperti, anche se mette in atto regolamenti federali e statali per ridurre i rischi della tecnologia. Se il Trump-Vance Se la squadra vincerà le prossime elezioni, è probabile che continueremo a sostenere l'IA aperta, ma con una regolamentazione ancora minore.
I modelli a peso aperto possono essere ottimi per l'innovazione, ma se i rischi emergenti colgono i regolatori alla sprovvista, non sarà possibile rimettere il genio dell'IA nella bottiglia.