Lagförslag i Kalifornien kan få katastrofala följder för AI-utvecklingen

31 juli 2024

  • Två lagförslag om AI kommer att ställa höga krav på tillverkare av AI-modeller
  • SB 1047 kommer att göra AI-utvecklare juridiskt ansvariga om andra använder deras modeller på farliga sätt
  • AB 3211 föreskriver vattenstämpel och märkning av syntetiskt innehåll och förbjuder modeller som inte

Kalifornien överväger flera lagförslag för att reglera AI med SB 1047 och AB 3211 som kommer att ha en enorm inverkan på AI-utvecklare om de blir lag nästa månad.

Diskussionerna om AI-risker och hur de kan minskas fortsätter, och i avsaknad av federala lagar i USA har Kalifornien utarbetat lagar som kan bli prejudicerande för andra delstater.

SB 1047 och AB 3211 godkändes båda av Kaliforniens delstatsförsamling och kan bli lag nästa månad när senaten röstar om dem.

Anhängare av lagförslagen säger att de ger ett efterlängtat skydd mot riskerna med osäkra AI-modeller och AI-genererat syntetiskt innehåll. Kritikerna menar att kraven i lagförslagen kommer att stoppa AI-utvecklingen i delstaten eftersom kraven är ogenomförbara.

Här är en snabb titt på de två lagförslagen och varför de kan få kaliforniska AI-utvecklare att överväga att införliva i andra stater.

SB 1047

Den SB 1047 "Säker och säker innovation för Frontier Artificial Intelligence Models Act" kommer att gälla för tillverkare av modeller som kostar $100 miljoner eller mer att utbilda.

Dessa utvecklare kommer att behöva genomföra ytterligare säkerhetskontroller och kommer att hållas ansvariga om deras modeller används för att orsaka "kritisk skada".

Lagförslaget definierar "kritisk skada" som "skapande eller användning av ett kemiskt, biologiskt, radiologiskt eller kärnvapen på ett sätt som resulterar i massolyckor ... eller minst fem hundra miljoner dollar ($500.000.000) i skador till följd av cyberattacker på kritisk infrastruktur.

Det kan låta som en bra idé att se till att skaparna av avancerade AI-modeller är tillräckligt försiktiga, men är det praktiskt genomförbart?

En biltillverkare bör vara ansvarig om deras fordon är osäkra, men bör de vara ansvariga om en person avsiktligt kör på någon som använder deras fordon?

Metas AI-chefforskare, Yann LeCun, tror inte det. LeCun är kritisk till lagförslaget och sa: "Tillsynsmyndigheter bör reglera applikationer, inte teknik ... Att göra teknikutvecklare ansvariga för dålig användning av produkter som byggts från deras teknik kommer helt enkelt att stoppa teknikutvecklingen."

Lagförslaget kommer också att göra skapare av modeller ansvariga om någon skapar ett derivat av deras modell och orsakar skada. Detta krav skulle vara döden för öppna viktmodeller som, ironiskt nog, Handelsdepartementet har godkänt.

SB 1047 antogs i Kaliforniens senat i maj med 32-1 röster och kommer att bli lag om den antas i senaten i augusti.

AB 3211

Den California Provenance, Authenticity, and Watermarking Standards Act (lag om standarder för proveniens, äkthet och vattenmärkning) (AB 3211) syftar till att säkerställa transparens och ansvarighet i skapandet och distributionen av syntetiskt innehåll.

Om något har genererats av AI måste det enligt lagförslaget märkas eller ha en digital vattenstämpel för att tydliggöra detta.

Vattenstämpeln måste vara "maximalt outplånlig ... utformad för att vara så svår att ta bort som möjligt". Branschen har antagit C2PA standard för ursprungmen det är trivialt att ta bort metadata från innehållet.

Lagförslaget kräver att varje AI-system för konversation "inhämtar användarens bekräftande samtycke innan konversationen inleds".

Så varje gång du använder ChatGPT eller Siri måste konversationen inledas med "Jag är en AI. Förstår du och samtycker du till detta? Varje gång.

Ett annat krav är att skapare av generativa AI-modeller måste föra ett register över AI-genererat innehåll som deras modeller har producerat och som kan tolkas som mänskligt genererat.

Detta skulle sannolikt vara omöjligt för skapare av öppna modeller. När någon laddar ner och kör modellen lokalt, hur ska du då övervaka vad de genererar?

Lagförslaget gäller för alla modeller som distribueras i Kalifornien, oavsett storlek eller vem som har gjort den. Om det passerar senaten nästa månad kommer AI-modeller som inte överensstämmer inte att få distribueras eller ens vara värd i Kalifornien. Ledsen för det HuggingFace och GitHub.

Om du befinner dig på fel sida av lagen tillåter det böter på "$1 miljoner eller 5% av överträdarens globala årliga intäkter, beroende på vilket som är störst." Det motsvarar miljarder dollar för sådana som Meta eller Google.

AI-reglering börjar skifta Silicon Valleys politiska stöd mot Trump-allierade "Gör Amerika först inom AI" tillvägagångssätt. Om SB 1047 och AB 3211 blir lag nästa månad kan det leda till att AI-utvecklare flyr till mindre reglerade delstater.

Bli en del av framtiden


PRENUMERERA IDAG

Tydlig, kortfattad och heltäckande. Få grepp om AI-utvecklingen med DagligaAI

Eugene van der Watt

Eugene kommer från en bakgrund som elektronikingenjör och älskar allt som har med teknik att göra. När han tar en paus från att konsumera AI-nyheter hittar du honom vid snookerbordet.

×

GRATIS PDF EXKLUSIV
Ligg steget före med DailyAI

Registrera dig för vårt veckovisa nyhetsbrev och få exklusiv tillgång till DailyAI:s senaste e-bok: "Mastering AI Tools: Din 2024-guide till förbättrad produktivitet".

*Genom att prenumerera på vårt nyhetsbrev accepterar du vår Integritetspolicy och våra Villkor och anvisningar