To tidligere OpenAI-forskere har skrevet et brev som svar på OpenAIs motstand mot Californias kontroversielle lovforslag SB 1047 om AI-sikkerhet.
Den lovforslag har gått sin vei gjennom delstatens lovgivende organer, og hvis den passerer hele senatet innen utgangen av måneden, vil den gå videre til guvernør Gavin Newsom for underskrift.
Lovforslaget krever ekstra sikkerhetskontroller for AI-modeller som koster mer enn $100 millioner å trene opp, samt en "kill switch" i tilfelle modellen oppfører seg dårlig. Tidligere OpenAI-ansatte og varslere, William Saunders og Daniel Kokotajlo, sier at de er "skuffet, men ikke overrasket" over OpenAIs motstand mot lovforslaget.
OpenAI's brev til lovforslagets forfatter, senator Scott Wiener, forklarte at selv om de støtter intensjonen bak lovforslaget, er føderale lover som regulerer AI-utvikling et bedre alternativ.
OpenAI sier at de nasjonale sikkerhetsimplikasjonene, som potensielle kjemiske, biologiske, radiologiske og kjernefysiske skader, "best håndteres av føderale myndigheter og etater".
I brevet står det at hvis "delstatene forsøker å konkurrere med de føderale myndighetene om knappe talenter og ressurser, vil det utvanne den allerede begrensede ekspertisen på tvers av etatene, noe som vil føre til en mindre effektiv og mer fragmentert politikk for å beskytte mot nasjonale sikkerhetsrisikoer og kritiske skader."
Brevet siterte også representanten Zoe Lofgrens bekymringer om at hvis lovforslaget ble undertegnet, "er det en reell risiko for at selskaper vil bestemme seg for å innlemme seg i andre jurisdiksjoner eller rett og slett ikke lansere modeller i California".
Svar fra OpenAI-varsleren
De tidligere OpenAI-ansatte kjøper ikke OpenAIs begrunnelse. De forklarte: "Vi ble med i OpenAI fordi vi ønsket å sørge for sikkerheten til de utrolig kraftige AI-systemene selskapet utvikler. Men vi trakk oss fra OpenAI fordi vi mistet tilliten til at selskapet ville utvikle AI-systemene sine på en trygg, ærlig og ansvarlig måte."
Forfatterne av brevet sto også bak "Rett til å advare"-brevsom ble utgitt tidligere i år.
I brevet forklarer de sin støtte til SB 1047 med at "utvikling av banebrytende AI-modeller uten tilstrekkelige sikkerhetstiltak utgjør en forutsigbar risiko for katastrofale skader på publikum".
OpenAI har opplevd en utvandring av forskere innen AI-sikkerhet, men selskapets modeller har ikke levert noen av de dommedagsscenariene mange har vært bekymret for. Varslerne sier: "Det er bare fordi de virkelig farlige systemene ennå ikke har blitt bygget, ikke fordi selskapene har sikkerhetsprosesser som kan håndtere virkelig farlige systemer."
De tror heller ikke på OpenAI-sjef Sam Altman når han sier at han er opptatt av AI-sikkerhet. "Sam Altman, vår tidligere sjef, har gjentatte ganger etterlyst regulering av AI. Nå, når faktisk regulering er på bordet, motsetter han seg det", forklarer de.
OpenAI er ikke det eneste selskapet som motsetter seg lovforslaget. Anthropic var også bekymret, men ser nå ut til å støtte det etter at det ble gjort endringer.
Anthropics administrerende direktør Dario Amodei sa i sitt brev til Californias guvernør Gavin Newsom den 21. august: "Etter vår vurdering er den nye SB 1047 vesentlig forbedret, til et punkt der vi mener at fordelene sannsynligvis oppveier kostnadene.
"Vi er imidlertid ikke sikre på dette, og det er fortsatt noen aspekter ved lovforslaget som virker bekymringsfulle eller tvetydige for oss ... Vår opprinnelige bekymring for at lovforslaget kunne hindre innovasjon på grunn av den raske utviklingen på feltet, har blitt kraftig redusert i den endrede versjonen."
Hvis SB 1047 blir vedtatt, kan det tvinge selskaper som OpenAI til å bruke mye mer ressurser på AI-sikkerhet, men det kan også føre til en migrasjon av teknologiselskaper fra Silicon Valley.