Le proposte di legge della California potrebbero essere disastrose per lo sviluppo dell'IA

31 luglio 2024

  • Due proposte di legge sull'IA impongono requisiti onerosi ai produttori di modelli di IA
  • L'SB 1047 renderà gli sviluppatori di IA legalmente responsabili se altri utilizzano i loro modelli in modo pericoloso
  • AB 3211 impone il watermarking e l'etichettatura dei contenuti sintetici e vieta i modelli che non lo fanno.

La California sta valutando diverse proposte di legge per regolamentare l'IA, con la SB 1047 e la AB 3211 che, se diventeranno legge il mese prossimo, avranno un impatto enorme sugli sviluppatori di IA.

Le discussioni sui rischi dell'IA e su come mitigarli continuano e, in assenza di leggi federali statunitensi, la California ha elaborato leggi che potrebbero costituire un precedente per altri Stati.

La SB 1047 e la AB 3211 sono passate entrambe dall'Assemblea dello Stato della California e potrebbero diventare legge il mese prossimo, quando il Senato le voterà.

I sostenitori delle proposte di legge affermano che esse forniscono una protezione a lungo attesa contro i rischi di modelli di IA non sicuri e di contenuti sintetici generati dall'IA. I critici sostengono che i requisiti imposti dalle proposte di legge uccideranno lo sviluppo dell'IA nello Stato, poiché sono inapplicabili.

Ecco un rapido sguardo alle due proposte di legge e al motivo per cui gli sviluppatori californiani di IA potrebbero prendere in considerazione la possibilità di incorporarsi in altri Stati.

SB 1047

Il SB 1047 "Legge sull'innovazione sicura per i modelli di intelligenza artificiale di frontiera". si applicherà ai produttori di modelli che costano $100 milioni o più di addestramento.

Questi sviluppatori saranno tenuti a implementare ulteriori controlli di sicurezza e saranno responsabili se i loro modelli verranno utilizzati per causare "danni critici".

Il disegno di legge definisce il "danno critico" come la "creazione o l'uso di un'arma chimica, biologica, radiologica o nucleare in modo da provocare vittime di massa... o almeno cinquecento milioni di dollari ($500.000.000) di danni derivanti da attacchi informatici a infrastrutture critiche".

Potrebbe sembrare una buona idea per assicurarsi che i creatori di modelli avanzati di IA prestino sufficiente attenzione, ma è pratico?

Una casa automobilistica dovrebbe essere responsabile se il suo veicolo non è sicuro, ma dovrebbe essere responsabile se una persona guida intenzionalmente contro qualcuno usando il suo veicolo?

Yann LeCun, scienziato capo di Meta, non la pensa così. LeCun è critico nei confronti della proposta di legge e ha dichiarato: "Le autorità di regolamentazione dovrebbero regolamentare le applicazioni, non la tecnologia... Rendere gli sviluppatori di tecnologia responsabili per i cattivi usi dei prodotti costruiti con la loro tecnologia semplicemente fermerà lo sviluppo della tecnologia".

Il disegno di legge renderà inoltre responsabili i creatori di modelli se qualcuno crea un derivato del loro modello e provoca danni. Questo requisito sarebbe la morte dei modelli a peso aperto che, per ironia della sorte, sono stati creati per la prima volta, il Dipartimento del Commercio ha approvato.

L'SB 1047 è passato al Senato della California a maggio con un voto di 32 a 1 e diventerà legge se passerà al Senato in agosto.

AB 3211

Il Legge sugli standard di provenienza, autenticità e filigrana della California (AB 3211) mira a garantire trasparenza e responsabilità nella creazione e distribuzione di contenuti sintetici.

Se qualcosa è stato generato dall'IA, il disegno di legge dice che deve essere etichettato o avere una filigrana digitale per renderlo chiaro.

La filigrana deve essere "massimamente indelebile... progettata per essere il più possibile difficile da rimuovere". L'industria ha adottato il Standard di provenienza C2PAma è banale rimuovere i metadati dal contenuto.

Il disegno di legge richiede che ogni sistema di intelligenza artificiale conversazionale "ottenga il consenso affermativo dell'utente prima di iniziare la conversazione".

Quindi, ogni volta che si usa ChatGPT o Siri si dovrebbe iniziare la conversazione con "Sono un'intelligenza artificiale. Capisci e acconsenti a questo?". Ogni volta.

Un altro requisito è che i creatori di modelli di IA generativa devono tenere un registro dei contenuti generati dall'IA che i loro modelli hanno prodotto, qualora questi possano essere interpretati come generati dall'uomo.

Questo sarebbe probabilmente impossibile per i creatori di modelli aperti. Una volta che qualcuno scarica ed esegue il modello in locale, come si può monitorare ciò che viene generato?

La proposta di legge si applica a tutti i modelli distribuiti in California, indipendentemente dalle dimensioni o da chi li ha realizzati. Se passerà al Senato il mese prossimo, i modelli di IA non conformi non potranno essere distribuiti e nemmeno ospitati in California. Mi dispiace per HuggingFace e GitHub.

Se vi trovate dalla parte sbagliata della legge, la legge prevede multe di "$1 milioni o 5% del fatturato annuo globale del violatore, a seconda di quale sia il maggiore". Ciò equivale a miliardi di dollari per aziende come Meta o Google.

La regolamentazione dell'AI sta iniziando a spostare il sostegno politico della Silicon Valley verso gli alleati di Trump". "L'America prima nell'intelligenza artificiale" approccio. Se le leggi SB 1047 e AB 3211 saranno approvate il mese prossimo, potrebbe verificarsi un esodo di sviluppatori di IA verso Stati meno regolamentati.

Partecipa al futuro


ISCRIVITI OGGI

Chiaro, conciso, completo. Per conoscere gli sviluppi dell'IA con DailyAI

Eugene van der Watt

Eugene proviene da un background di ingegneria elettronica e ama tutto ciò che è tecnologico. Quando si prende una pausa dal consumo di notizie sull'intelligenza artificiale, lo si può trovare al tavolo da biliardo.

×

PDF GRATUITO ESCLUSIVO
Rimanere all'avanguardia con DailyAI

Iscriviti alla nostra newsletter settimanale e ricevi l'accesso esclusivo all'ultimo eBook di DailyAI: 'Mastering AI Tools: La tua guida 2024 per una maggiore produttività".

*Iscrivendosi alla nostra newsletter si accetta la nostra Informativa sulla privacy e il nostro Termini e condizioni