Due ex ricercatori di OpenAI hanno scritto una lettera in risposta all'opposizione di OpenAI alla controversa legge californiana SB 1047 sulla sicurezza delle IA.
Il proposta di legge ha attraversato le fasi legislative dello Stato e, se passerà al Senato entro la fine del mese, passerà al Governatore Gavin Newsom per la firma.
La proposta di legge prevede controlli di sicurezza supplementari per i modelli di intelligenza artificiale che costano più di $100m per l'addestramento, nonché un "interruttore di sicurezza" nel caso in cui il modello si comporti male. Gli ex dipendenti di OpenAI e informatori, William Saunders e Daniel Kokotajlo, si dicono "delusi ma non sorpresi" dall'opposizione di OpenAI alla legge.
OpenAIlettera all'autore della legge, il senatore Scott Wiener, ha spiegato che, pur sostenendo l'intento della legge, le leggi federali che regolano lo sviluppo dell'IA sono un'opzione migliore.
OpenAI sostiene che le implicazioni per la sicurezza nazionale, come i potenziali danni chimici, biologici, radiologici e nucleari, sono "gestite al meglio dal governo federale e dalle agenzie".
Nella lettera si legge che "se gli Stati tentano di competere con il governo federale per i talenti e le risorse scarse, diluiranno le già limitate competenze delle agenzie, portando a una politica meno efficace e più frammentata per la protezione contro i rischi per la sicurezza nazionale e i danni critici".
La lettera citava anche le preoccupazioni del rappresentante Zoe Lofgren, secondo cui se il disegno di legge fosse stato firmato, "c'è il rischio reale che le aziende decidano di incorporarsi in altre giurisdizioni o semplicemente di non rilasciare modelli in California".
Risposta dell'informatore di OpenAI
Gli ex dipendenti di OpenAI non sono d'accordo con il ragionamento di OpenAI. Hanno spiegato: "Ci siamo uniti a OpenAI perché volevamo garantire la sicurezza dei sistemi di IA incredibilmente potenti che l'azienda sta sviluppando. Ma ci siamo dimessi da OpenAI perché abbiamo perso la fiducia che l'azienda avrebbe sviluppato i suoi sistemi di IA in modo sicuro, onesto e responsabile".
Gli autori di la lettera erano anche dietro il "Lettera "Diritto di avviso, pubblicato all'inizio di quest'anno.
Per spiegare il loro sostegno all'SB 1047, la lettera dice: "Lo sviluppo di modelli di AI di frontiera senza adeguate precauzioni di sicurezza comporta rischi prevedibili di danni catastrofici per il pubblico".
OpenAI ha visto un esodo di ricercatori sulla sicurezza dell'IA, ma i modelli dell'azienda non hanno prodotto gli scenari apocalittici che molti temevano. Gli informatori affermano: "Questo solo perché non sono ancora stati costruiti sistemi veramente pericolosi, non perché le aziende abbiano processi di sicurezza in grado di gestire sistemi veramente pericolosi".
Non credono nemmeno a Sam Altman, CEO di OpenAI, quando dice di impegnarsi per la sicurezza dell'IA. "Sam Altman, il nostro ex capo, ha ripetutamente chiesto una regolamentazione dell'IA. Ora, quando si parla di una regolamentazione vera e propria, si oppone", hanno spiegato.
OpenAI non è l'unica azienda che si oppone alla legge. Anche Anthropic aveva delle perplessità, ma ora sembra sostenerla dopo le modifiche apportate.
L'amministratore delegato di Anthropic, Dario Amodei, ha dichiarato nella lettera inviata al governatore della California Gavin Newsom il 21 agosto: "Secondo la nostra valutazione, il nuovo SB 1047 è sostanzialmente migliorato, al punto che riteniamo che i benefici siano probabilmente superiori ai costi.
"Tuttavia, non ne siamo certi e ci sono ancora alcuni aspetti del disegno di legge che ci sembrano preoccupanti o ambigui... Le nostre preoccupazioni iniziali sul fatto che il disegno di legge possa ostacolare l'innovazione a causa della natura in rapida evoluzione del settore sono state notevolmente ridotte nella versione emendata".
Se l'SB 1047 venisse approvato, potrebbe costringere aziende come OpenAI a concentrare molte più risorse sulla sicurezza dell'IA, ma potrebbe anche verificarsi una migrazione di aziende tecnologiche dalla Silicon Valley.