Lovforslag i Californien kan være katastrofale for AI-udvikling

31. juli 2024

  • To lovforslag om AI vil stille store krav til producenter af AI-modeller
  • SB 1047 vil gøre AI-udviklere juridisk ansvarlige, hvis andre bruger deres modeller på farlige måder
  • AB 3211 kræver vandmærkning og mærkning af syntetisk indhold og forbyder modeller, der ikke gør det.

Californien overvejer flere lovforslag, der skal regulere AI, og SB 1047 og AB 3211 vil få stor indflydelse på AI-udviklere, hvis de bliver vedtaget i næste måned.

Diskussionerne om AI-risici, og hvordan man mindsker dem, fortsætter, og i mangel af føderale love i USA har Californien udarbejdet love, der kan danne præcedens for andre stater.

SB 1047 og AB 3211 blev begge vedtaget i Californiens delstatsforsamling og kan blive til lov i næste måned, når senatet stemmer om dem.

Tilhængere af lovforslagene siger, at de giver en længe ventet beskyttelse mod risikoen ved usikre AI-modeller og AI-genereret syntetisk indhold. Kritikere siger, at kravene i lovforslagene vil dræbe AI-udvikling i staten, da kravene er uigennemførlige.

Her er et hurtigt kig på de to lovforslag, og hvorfor de kan få californiske AI-udviklere til at overveje at etablere sig i andre stater.

SB 1047

Den SB 1047 "Lov om sikker og tryg innovation for modeller for kunstig intelligens på grænsen" vil gælde for producenter af modeller, der koster $100 millioner eller mere at træne.

Disse udviklere vil blive pålagt at gennemføre yderligere sikkerhedstjek og vil være ansvarlige, hvis deres modeller bruges til at forårsage "kritisk skade".

Lovforslaget definerer "kritisk skade" som "skabelse eller brug af et kemisk, biologisk, radiologisk eller nukleart våben på en måde, der resulterer i masseskader ... eller mindst fem hundrede millioner dollars ($500.000.000) i skade som følge af cyberangreb på kritisk infrastruktur.

Det lyder måske som en god idé for at sikre, at skaberne af avancerede AI-modeller er tilstrækkeligt omhyggelige, men er det praktisk muligt?

En bilproducent bør være ansvarlig, hvis deres køretøj er usikkert, men bør de være ansvarlige, hvis en person med vilje kører ind i nogen med deres køretøj?

Det mener Metas AI-chefforsker, Yann LeCun, ikke. LeCun er kritisk over for lovforslaget og siger: "Tilsynsmyndigheder bør regulere applikationer, ikke teknologi ... At gøre teknologiudviklere ansvarlige for dårlig brug af produkter, der er bygget på deres teknologi, vil simpelthen stoppe teknologiudviklingen."

Lovforslaget vil også gøre skabere af modeller ansvarlige, hvis nogen skaber et derivat af deres model og forårsager skade. Dette krav ville være døden for åbne vægtmodeller, som ironisk nok.., Handelsministeriet har godkendt.

SB 1047 blev vedtaget i Californiens senat i maj med stemmerne 32-1 og bliver til lov, hvis den bliver vedtaget i senatet i august.

AB 3211

Den Lov om standarder for proveniens, autenticitet og vandmærkning i Californien (AB 3211) har til formål at sikre gennemsigtighed og ansvarlighed i skabelsen og distributionen af syntetisk indhold.

Hvis noget er genereret af AI, skal det ifølge lovforslaget mærkes eller have et digitalt vandmærke for at gøre det klart.

Vandmærket skal være "maksimalt uudsletteligt ... designet til at være så svært at fjerne som muligt." Branchen har vedtaget C2PA-proveniensstandardmen det er trivielt at fjerne metadata fra indholdet.

Lovforslaget kræver, at alle AI-samtalesystemer skal "indhente en brugers bekræftende samtykke, før samtalen påbegyndes".

Så hver gang du bruger ChatGPT eller Siri, skal den starte samtalen med "Jeg er en AI. Forstår du og giver du dit samtykke til dette? Hver gang.

Et andet krav er, at skabere af generative AI-modeller skal føre et register over AI-genereret indhold, som deres modeller har produceret, hvis det kan opfattes som menneskeskabt.

Dette ville sandsynligvis være umuligt for skabere af åbne modeller. Når nogen har downloadet og kørt modellen lokalt, hvordan vil du så overvåge, hvad de genererer?

Lovforslaget gælder for alle modeller, der distribueres i Californien, uanset størrelse eller hvem der har lavet dem. Hvis det bliver vedtaget i senatet i næste måned, vil AI-modeller, der ikke overholder loven, ikke kunne distribueres eller endda hostes i Californien. Det må du undskylde, HuggingFace og GitHub.

Hvis du befinder dig på den forkerte side af loven, giver den mulighed for bøder på "$1 million eller 5% af overtræderens globale årlige indtægter, alt efter hvad der er størst." Det svarer til milliarder af dollars for virksomheder som Meta eller Google.

AI-regulering begynder at flytte Silicon Valleys politiske støtte til Trump-allierede' "Gør Amerika til førende inden for AI" tilgang. Hvis SB 1047 og AB 3211 bliver underskrevet i næste måned, kan det udløse en udvandring af AI-udviklere, der flygter til mindre regulerede stater.

Deltag i fremtiden


TILMELD DIG I DAG

Klar, kortfattet, omfattende. Få styr på AI-udviklingen med DailyAI

Eugene van der Watt

Eugene har en baggrund som elektronikingeniør og elsker alt, hvad der har med teknologi at gøre. Når han tager en pause fra at læse AI-nyheder, kan du finde ham ved snookerbordet.

×

GRATIS PDF EKSKLUSIVT
Vær på forkant med DailyAI

Tilmeld dig vores ugentlige nyhedsbrev og få eksklusiv adgang til DailyAI's seneste e-bog: 'Mastering AI Tools: Din 2024-guide til forbedret produktivitet'.

*Ved at tilmelde dig vores nyhedsbrev accepterer du vores Politik for beskyttelse af personlige oplysninger og vores Vilkår og betingelser