Whistleblowere kritiserer OpenAI's modstand mod lovforslag om AI-sikkerhed

26. august 2024

  • Californiens kontroversielle SB 1047-lovforslag om AI-sikkerhed rykker tættere på at blive underskrevet som lov
  • OpenAI skrev et brev til lovforslagets forfatter, senator Scott Wiener, for at modsætte sig lovforslaget
  • To tidligere OpenAI-forskere skrev et brev, hvor de kritiserede OpenAI's modstand og tilgang til AI-sikkerhed

To tidligere OpenAI-forskere skrev et brev som svar på OpenAI's modstand mod Californiens kontroversielle SB 1047-lovforslag om AI-sikkerhed.

Den Lovforslag har været på vej gennem statens lovgivning, og hvis den passerer hele senatet inden månedens udgang, vil den gå videre til guvernør Gavin Newsom til hans underskrift.

Lovforslaget kræver ekstra sikkerhedstjek for AI-modeller, der koster mere end $100 mio. at træne, samt en "kill switch", hvis modellen opfører sig forkert. Tidligere OpenAI-medarbejdere og whistleblowere, William Saunders og Daniel Kokotajlo, siger, at de er "skuffede, men ikke overraskede" over OpenAI's modstand mod lovforslaget.

OpenAI's brev til lovforslagets forfatter, senator Scott Wiener, forklarede, at selvom de støtter hensigten bag lovforslaget, er føderale love, der regulerer AI-udvikling, en bedre mulighed.

OpenAI siger, at de nationale sikkerhedsimplikationer såsom potentielle kemiske, biologiske, radiologiske og nukleare skader "bedst håndteres af den føderale regering og agenturer".

I brevet står der, at hvis "stater forsøger at konkurrere med den føderale regering om knappe talenter og ressourcer, vil det udvande den allerede begrænsede ekspertise på tværs af agenturer, hvilket fører til en mindre effektiv og mere fragmenteret politik til beskyttelse mod nationale sikkerhedsrisici og kritiske skader."

Brevet citerede også repræsentant Zoe Lofgrens bekymringer om, at hvis lovforslaget blev underskrevet, "er der en reel risiko for, at virksomheder vil beslutte at indlemme sig i andre jurisdiktioner eller simpelthen ikke udgive modeller i Californien."

OpenAI-whistleblowerens svar

De tidligere OpenAI-medarbejdere køber ikke OpenAI's argumentation. De forklarer: "Vi meldte os ind i OpenAI, fordi vi ønskede at garantere sikkerheden for de utroligt kraftfulde AI-systemer, som virksomheden udvikler. Men vi meldte os ud af OpenAI, fordi vi mistede tilliden til, at virksomheden ville udvikle sine AI-systemer på en sikker, ærlig og ansvarlig måde."

Forfatterne af brevet stod også bag "Ret til at advare"-brevsom udkom tidligere i år.

I brevet, der forklarer deres støtte til SB 1047, står der: "Udvikling af avancerede AI-modeller uden tilstrækkelige sikkerhedsforanstaltninger udgør en forudsigelig risiko for katastrofale skader på offentligheden."

OpenAI har oplevet en udvandring af forskere i AI-sikkerhed, men virksomhedens modeller har ikke leveret nogen af de dommedagsscenarier, som mange har været bekymrede for. Whistleblowerne siger: "Det er kun, fordi der endnu ikke er bygget virkelig farlige systemer, ikke fordi virksomhederne har sikkerhedsprocesser, der kan håndtere virkelig farlige systemer."

De tror heller ikke på OpenAI's CEO Sam Altman, når han siger, at han er engageret i AI-sikkerhed. "Sam Altman, vores tidligere chef, har gentagne gange opfordret til AI-regulering. Nu, hvor der faktisk er regulering på bordet, er han imod det," forklarer de.

OpenAI er ikke den eneste virksomhed, der er imod lovforslaget. Anthropic var også bekymret, men ser nu ud til at støtte det, efter at der er blevet foretaget ændringer.

Anthropics CEO Dario Amodei sagde i sit brev til Californiens guvernør Gavin Newsom den 21. august: "Efter vores vurdering er den nye SB 1047 væsentligt forbedret, så vi mener, at dens fordele sandsynligvis opvejer dens omkostninger.

"Vi er dog ikke sikre på dette, og der er stadig nogle aspekter af lovforslaget, som virker bekymrende eller tvetydige for os ... Vores oprindelige bekymringer om, at lovforslaget potentielt kunne hindre innovation på grund af den hurtige udvikling inden for området, er blevet kraftigt reduceret i den ændrede version."

Hvis SB 1047 bliver underskrevet, kan det tvinge virksomheder som OpenAI til at fokusere meget mere på AI-sikkerhed, men det kan også føre til en udvandring af teknologivirksomheder fra Silicon Valley.

Deltag i fremtiden


TILMELD DIG I DAG

Klar, kortfattet, omfattende. Få styr på AI-udviklingen med DailyAI

Eugene van der Watt

Eugene har en baggrund som elektronikingeniør og elsker alt, hvad der har med teknologi at gøre. Når han tager en pause fra at læse AI-nyheder, kan du finde ham ved snookerbordet.

×

GRATIS PDF EKSKLUSIVT
Vær på forkant med DailyAI

Tilmeld dig vores ugentlige nyhedsbrev og få eksklusiv adgang til DailyAI's seneste e-bog: 'Mastering AI Tools: Din 2024-guide til forbedret produktivitet'.

*Ved at tilmelde dig vores nyhedsbrev accepterer du vores Politik for beskyttelse af personlige oplysninger og vores Vilkår og betingelser