La politica del Dipartimento del Commercio degli Stati Uniti approva modelli di intelligenza artificiale "aperti

30 luglio 2024

  • Il Dipartimento del Commercio (DOC) ha emanato una politica che "abbraccia l'apertura nell'intelligenza artificiale".
  • Il rapporto chiede un monitoraggio attivo dei rischi dell'IA a duplice uso, ma sostiene i modelli a ponderazione aperta.
  • Il rapporto afferma che i modelli aperti promuovono l'innovazione, la trasparenza e la democratizzazione dell'IA.

Il Dipartimento del Commercio degli Stati Uniti ha emanato una politica a favore dei modelli aperti, segno della posizione dell'amministrazione Biden-Harris su questo tema controverso.

I sostenitori dei modelli chiusi, come OpenAI e Google, parlano dei rischi dei modelli aperti, mentre altri, come Meta, sono impegnati in variazioni di IA open-source.

Il rapporto del DOC redatto dalla divisione della National Telecommunications and Information Administration (NTIA), abbraccia "l'apertura dell'intelligenza artificiale (IA), chiedendo al contempo un monitoraggio attivo dei rischi nei potenti modelli di IA".

Le argomentazioni contro la divulgazione dei modelli sono in genere legate al rischio di un doppio uso da parte di malintenzionati che potrebbero piegare i modelli alla loro volontà nefasta. La politica riconosce il rischio del doppio uso, ma afferma che i benefici superano i rischi.

"L'amministrazione Biden-Harris sta facendo tutto il possibile per massimizzare le promesse dell'IA, minimizzandone i rischi", ha dichiarato il Segretario al Commercio degli Stati Uniti Gina Raimondo.

"Il rapporto di oggi fornisce una tabella di marcia per un'innovazione responsabile dell'IA e per la leadership americana, abbracciando l'apertura e raccomandando come il governo degli Stati Uniti possa prepararsi e adattarsi alle potenziali sfide future."

Secondo il rapporto, il governo statunitense dovrebbe monitorare attivamente i potenziali rischi emergenti, ma dovrebbe astenersi dal limitare la disponibilità di modelli a pesi aperti.

I pesi aperti aprono le porte

Chiunque può scaricare l'ultima versione di Meta Modello Llama 3.1 405B e i suoi pesi. Anche se i dati di addestramento non sono stati resi disponibili, il fatto di avere i pesi offre agli utenti molte più opzioni rispetto a quelle che avrebbero avuto con GPT-4o o Claude 3,5 Sonetto ad esempio.

L'accesso ai pesi consente a ricercatori e sviluppatori di avere una visione migliore di ciò che accade sotto il cofano e di identificare e correggere distorsioni, errori o comportamenti inaspettati all'interno del modello.

Inoltre, è molto più facile per gli utenti mettere a punto i modelli per casi d'uso specifici, sia positivi che negativi.

Il rapporto osserva che "l'accessibilità offerta dai pesi aperti abbassa significativamente la barriera d'ingresso per la messa a punto dei modelli a fini sia benefici che dannosi. Gli attori avversi possono rimuovere le protezioni dai modelli aperti attraverso la messa a punto e poi distribuire liberamente il modello, limitando in ultima analisi il valore delle tecniche di mitigazione".

I rischi e i benefici dei modelli di IA aperti evidenziati dal rapporto includono:

  • Sicurezza pubblica
  • Considerazioni geopolitiche
  • Problemi sociali
  • Concorrenza, innovazione e ricerca

Il rapporto riconosce candidamente i rischi in ciascuna di queste aree, ma afferma che i benefici sono superiori se i rischi vengono gestiti.

Con un modello chiuso come il GPT-4o, dobbiamo tutti confidare che OpenAI stia facendo un buon lavoro con i suoi sforzi di allineamento e non stia nascondendo potenziali rischi. Con un modello di peso aperto, qualsiasi ricercatore può identificare le vulnerabilità di sicurezza in un modello o eseguire un audit di terze parti per garantire che il modello sia conforme alle normative.

Il rapporto afferma che "la disponibilità di pesi modello potrebbe consentire ai Paesi che destano preoccupazione di sviluppare ecosistemi avanzati di IA più solidi... e compromettere gli obiettivi di Controlli sui chip negli Stati Uniti."

Tuttavia, nella colonna positiva, rendere disponibili i pesi modello "potrebbe rafforzare la cooperazione con gli alleati e approfondire le nuove relazioni con i partner in via di sviluppo".

Il governo degli Stati Uniti è chiaramente convinto dell'idea di modelli di IA aperti, anche se mette in atto regolamenti federali e statali per ridurre i rischi della tecnologia. Se il Trump-Vance Se la squadra vincerà le prossime elezioni, è probabile che continueremo a sostenere l'IA aperta, ma con una regolamentazione ancora minore.

I modelli a peso aperto possono essere ottimi per l'innovazione, ma se i rischi emergenti colgono i regolatori alla sprovvista, non sarà possibile rimettere il genio dell'IA nella bottiglia.

Partecipa al futuro


ISCRIVITI OGGI

Chiaro, conciso, completo. Per conoscere gli sviluppi dell'IA con DailyAI

Eugene van der Watt

Eugene proviene da un background di ingegneria elettronica e ama tutto ciò che è tecnologico. Quando si prende una pausa dal consumo di notizie sull'intelligenza artificiale, lo si può trovare al tavolo da biliardo.

×

PDF GRATUITO ESCLUSIVO
Rimanere all'avanguardia con DailyAI

Iscriviti alla nostra newsletter settimanale e ricevi l'accesso esclusivo all'ultimo eBook di DailyAI: 'Mastering AI Tools: La tua guida 2024 per una maggiore produttività".

*Iscrivendosi alla nostra newsletter si accetta la nostra Informativa sulla privacy e il nostro Termini e condizioni