To tidligere OpenAI-forskere skrev et brev som svar på OpenAI's modstand mod Californiens kontroversielle SB 1047-lovforslag om AI-sikkerhed.
Den Lovforslag har været på vej gennem statens lovgivning, og hvis den passerer hele senatet inden månedens udgang, vil den gå videre til guvernør Gavin Newsom til hans underskrift.
Lovforslaget kræver ekstra sikkerhedstjek for AI-modeller, der koster mere end $100 mio. at træne, samt en "kill switch", hvis modellen opfører sig forkert. Tidligere OpenAI-medarbejdere og whistleblowere, William Saunders og Daniel Kokotajlo, siger, at de er "skuffede, men ikke overraskede" over OpenAI's modstand mod lovforslaget.
OpenAI's brev til lovforslagets forfatter, senator Scott Wiener, forklarede, at selvom de støtter hensigten bag lovforslaget, er føderale love, der regulerer AI-udvikling, en bedre mulighed.
OpenAI siger, at de nationale sikkerhedsimplikationer såsom potentielle kemiske, biologiske, radiologiske og nukleare skader "bedst håndteres af den føderale regering og agenturer".
I brevet står der, at hvis "stater forsøger at konkurrere med den føderale regering om knappe talenter og ressourcer, vil det udvande den allerede begrænsede ekspertise på tværs af agenturer, hvilket fører til en mindre effektiv og mere fragmenteret politik til beskyttelse mod nationale sikkerhedsrisici og kritiske skader."
Brevet citerede også repræsentant Zoe Lofgrens bekymringer om, at hvis lovforslaget blev underskrevet, "er der en reel risiko for, at virksomheder vil beslutte at indlemme sig i andre jurisdiktioner eller simpelthen ikke udgive modeller i Californien."
OpenAI-whistleblowerens svar
De tidligere OpenAI-medarbejdere køber ikke OpenAI's argumentation. De forklarer: "Vi meldte os ind i OpenAI, fordi vi ønskede at garantere sikkerheden for de utroligt kraftfulde AI-systemer, som virksomheden udvikler. Men vi meldte os ud af OpenAI, fordi vi mistede tilliden til, at virksomheden ville udvikle sine AI-systemer på en sikker, ærlig og ansvarlig måde."
Forfatterne af brevet stod også bag "Ret til at advare"-brevsom udkom tidligere i år.
I brevet, der forklarer deres støtte til SB 1047, står der: "Udvikling af avancerede AI-modeller uden tilstrækkelige sikkerhedsforanstaltninger udgør en forudsigelig risiko for katastrofale skader på offentligheden."
OpenAI har oplevet en udvandring af forskere i AI-sikkerhed, men virksomhedens modeller har ikke leveret nogen af de dommedagsscenarier, som mange har været bekymrede for. Whistleblowerne siger: "Det er kun, fordi der endnu ikke er bygget virkelig farlige systemer, ikke fordi virksomhederne har sikkerhedsprocesser, der kan håndtere virkelig farlige systemer."
De tror heller ikke på OpenAI's CEO Sam Altman, når han siger, at han er engageret i AI-sikkerhed. "Sam Altman, vores tidligere chef, har gentagne gange opfordret til AI-regulering. Nu, hvor der faktisk er regulering på bordet, er han imod det," forklarer de.
OpenAI er ikke den eneste virksomhed, der er imod lovforslaget. Anthropic var også bekymret, men ser nu ud til at støtte det, efter at der er blevet foretaget ændringer.
Anthropics CEO Dario Amodei sagde i sit brev til Californiens guvernør Gavin Newsom den 21. august: "Efter vores vurdering er den nye SB 1047 væsentligt forbedret, så vi mener, at dens fordele sandsynligvis opvejer dens omkostninger.
"Vi er dog ikke sikre på dette, og der er stadig nogle aspekter af lovforslaget, som virker bekymrende eller tvetydige for os ... Vores oprindelige bekymringer om, at lovforslaget potentielt kunne hindre innovation på grund af den hurtige udvikling inden for området, er blevet kraftigt reduceret i den ændrede version."
Hvis SB 1047 bliver underskrevet, kan det tvinge virksomheder som OpenAI til at fokusere meget mere på AI-sikkerhed, men det kan også føre til en udvandring af teknologivirksomheder fra Silicon Valley.