Gli informatori criticano l'opposizione di OpenAI alla legge sulla sicurezza dell'IA

26 agosto 2024

  • La controversa legge californiana SB 1047 sulla sicurezza dell'IA si sta avvicinando alla firma della legge.
  • OpenAI ha scritto una lettera all'autore del disegno di legge, il senatore Scott Wiener, per opporsi al disegno di legge
  • Due ex ricercatori di OpenAI hanno scritto una lettera in cui criticano l'opposizione di OpenAI e l'approccio alla sicurezza dell'IA.

Due ex ricercatori di OpenAI hanno scritto una lettera in risposta all'opposizione di OpenAI alla controversa legge californiana SB 1047 sulla sicurezza delle IA.

Il proposta di legge ha attraversato le fasi legislative dello Stato e, se passerà al Senato entro la fine del mese, passerà al Governatore Gavin Newsom per la firma.

La proposta di legge prevede controlli di sicurezza supplementari per i modelli di intelligenza artificiale che costano più di $100m per l'addestramento, nonché un "interruttore di sicurezza" nel caso in cui il modello si comporti male. Gli ex dipendenti di OpenAI e informatori, William Saunders e Daniel Kokotajlo, si dicono "delusi ma non sorpresi" dall'opposizione di OpenAI alla legge.

OpenAIlettera all'autore della legge, il senatore Scott Wiener, ha spiegato che, pur sostenendo l'intento della legge, le leggi federali che regolano lo sviluppo dell'IA sono un'opzione migliore.

OpenAI sostiene che le implicazioni per la sicurezza nazionale, come i potenziali danni chimici, biologici, radiologici e nucleari, sono "gestite al meglio dal governo federale e dalle agenzie".

Nella lettera si legge che "se gli Stati tentano di competere con il governo federale per i talenti e le risorse scarse, diluiranno le già limitate competenze delle agenzie, portando a una politica meno efficace e più frammentata per la protezione contro i rischi per la sicurezza nazionale e i danni critici".

La lettera citava anche le preoccupazioni del rappresentante Zoe Lofgren, secondo cui se il disegno di legge fosse stato firmato, "c'è il rischio reale che le aziende decidano di incorporarsi in altre giurisdizioni o semplicemente di non rilasciare modelli in California".

Risposta dell'informatore di OpenAI

Gli ex dipendenti di OpenAI non sono d'accordo con il ragionamento di OpenAI. Hanno spiegato: "Ci siamo uniti a OpenAI perché volevamo garantire la sicurezza dei sistemi di IA incredibilmente potenti che l'azienda sta sviluppando. Ma ci siamo dimessi da OpenAI perché abbiamo perso la fiducia che l'azienda avrebbe sviluppato i suoi sistemi di IA in modo sicuro, onesto e responsabile".

Gli autori di la lettera erano anche dietro il "Lettera "Diritto di avviso, pubblicato all'inizio di quest'anno.

Per spiegare il loro sostegno all'SB 1047, la lettera dice: "Lo sviluppo di modelli di AI di frontiera senza adeguate precauzioni di sicurezza comporta rischi prevedibili di danni catastrofici per il pubblico".

OpenAI ha visto un esodo di ricercatori sulla sicurezza dell'IA, ma i modelli dell'azienda non hanno prodotto gli scenari apocalittici che molti temevano. Gli informatori affermano: "Questo solo perché non sono ancora stati costruiti sistemi veramente pericolosi, non perché le aziende abbiano processi di sicurezza in grado di gestire sistemi veramente pericolosi".

Non credono nemmeno a Sam Altman, CEO di OpenAI, quando dice di impegnarsi per la sicurezza dell'IA. "Sam Altman, il nostro ex capo, ha ripetutamente chiesto una regolamentazione dell'IA. Ora, quando si parla di una regolamentazione vera e propria, si oppone", hanno spiegato.

OpenAI non è l'unica azienda che si oppone alla legge. Anche Anthropic aveva delle perplessità, ma ora sembra sostenerla dopo le modifiche apportate.

L'amministratore delegato di Anthropic, Dario Amodei, ha dichiarato nella lettera inviata al governatore della California Gavin Newsom il 21 agosto: "Secondo la nostra valutazione, il nuovo SB 1047 è sostanzialmente migliorato, al punto che riteniamo che i benefici siano probabilmente superiori ai costi.

"Tuttavia, non ne siamo certi e ci sono ancora alcuni aspetti del disegno di legge che ci sembrano preoccupanti o ambigui... Le nostre preoccupazioni iniziali sul fatto che il disegno di legge possa ostacolare l'innovazione a causa della natura in rapida evoluzione del settore sono state notevolmente ridotte nella versione emendata".

Se l'SB 1047 venisse approvato, potrebbe costringere aziende come OpenAI a concentrare molte più risorse sulla sicurezza dell'IA, ma potrebbe anche verificarsi una migrazione di aziende tecnologiche dalla Silicon Valley.

Partecipa al futuro


ISCRIVITI OGGI

Chiaro, conciso, completo. Per conoscere gli sviluppi dell'IA con DailyAI

Eugene van der Watt

Eugene proviene da un background di ingegneria elettronica e ama tutto ciò che è tecnologico. Quando si prende una pausa dal consumo di notizie sull'intelligenza artificiale, lo si può trovare al tavolo da biliardo.

×

PDF GRATUITO ESCLUSIVO
Rimanere all'avanguardia con DailyAI

Iscriviti alla nostra newsletter settimanale e ricevi l'accesso esclusivo all'ultimo eBook di DailyAI: 'Mastering AI Tools: La tua guida 2024 per una maggiore produttività".

*Iscrivendosi alla nostra newsletter si accetta la nostra Informativa sulla privacy e il nostro Termini e condizioni