Lovforslagene i California kan være katastrofale for utviklingen av kunstig intelligens

31. juli 2024

  • To lovforslag om kunstig intelligens vil stille strenge krav til produsenter av AI-modeller
  • SB 1047 vil gjøre AI-utviklere juridisk ansvarlige hvis andre bruker modellene deres på farlige måter
  • AB 3211 pålegger vannmerking og merking av syntetisk innhold og forbyr modeller som ikke gjør det

California vurderer flere lovforslag for å regulere AI, og SB 1047 og AB 3211 vil få stor innvirkning på AI-utviklere hvis de blir vedtatt neste måned.

Diskusjonene om risikoer knyttet til kunstig intelligens og hvordan de kan reduseres, fortsetter, og i mangel av føderale lover i USA har California utarbeidet lover som kan danne presedens for andre delstater.

SB 1047 og AB 3211 ble begge vedtatt i Californias delstatsforsamling og kan bli lov neste måned når Senatet stemmer over dem.

Tilhengerne av lovforslagene sier at de gir etterlengtet beskyttelse mot risikoen ved usikre AI-modeller og AI-generert syntetisk innhold. Kritikerne mener at kravene i lovforslagene vil ta knekken på AI-utviklingen i delstaten, ettersom kravene er umulige å gjennomføre.

Her er en rask titt på de to lovforslagene og hvorfor de kan få californiske AI-utviklere til å vurdere å etablere seg i andre stater.

SB 1047

Den SB 1047 "Lov om trygg og sikker innovasjon for modeller for kunstig intelligens" vil gjelde for produsenter av modeller som koster $100 millioner eller mer å trene opp.

Disse utviklerne vil bli pålagt å gjennomføre ytterligere sikkerhetskontroller og vil bli holdt ansvarlige hvis modellene deres brukes til å forårsake "kritisk skade".

Lovforslaget definerer "kritisk skade" som "opprettelse eller bruk av et kjemisk, biologisk, radiologisk eller kjernefysisk våpen på en måte som resulterer i massedødsfall ... eller minst fem hundre millioner dollar ($500 000 000 000) i skade som følge av cyberangrep på kritisk infrastruktur.

Dette høres kanskje ut som en god idé for å sikre at skaperne av avanserte AI-modeller er tilstrekkelig forsiktige, men er det praktisk gjennomførbart?

En bilprodusent bør være ansvarlig hvis kjøretøyet deres er utrygt, men bør de være ansvarlige hvis en person med vilje kjører på noen med deres kjøretøy?

Metas AI-sjefforsker, Yann LeCun, tror ikke det. LeCun er kritisk til lovforslaget og sa: "Tilsynsmyndigheter bør regulere applikasjoner, ikke teknologi ... Å gjøre teknologiutviklere ansvarlige for dårlig bruk av produkter som er bygget på deres teknologi, vil ganske enkelt stoppe teknologiutviklingen."

Lovforslaget vil også gjøre modellskapere ansvarlige dersom noen lager et derivat av modellen deres og forårsaker skade. Dette kravet vil være døden for åpne modeller, som ironisk nok Handelsdepartementet har gitt sin tilslutning til.

SB 1047 ble vedtatt i Californias senat i mai med 32 mot 1 stemme, og vil bli lov dersom den blir vedtatt i senatet i august.

AB 3211

Den California Provenance, Authenticity, and Watermarking Standards Act (lov om standarder for proveniens, autentisitet og vannmerking) (AB 3211) har som mål å sikre åpenhet og ansvarlighet i forbindelse med produksjon og distribusjon av syntetisk innhold.

Hvis noe er generert av kunstig intelligens, må det ifølge lovforslaget merkes eller ha et digitalt vannmerke for å tydeliggjøre dette.

Vannmerket må være "maksimalt uutslettelig ... utformet for å være så vanskelig å fjerne som mulig". Bransjen har tatt i bruk C2PA-proveniensstandardmen det er trivielt å fjerne metadataene fra innholdet.

Lovforslaget krever at alle systemer for kunstig intelligens skal "innhente brukerens samtykke før samtalen starter".

Så hver gang du bruker ChatGPT eller Siri, må den starte samtalen med "Jeg er en AI. Forstår du og samtykker du til dette? Hver eneste gang.

Et annet krav er at skaperne av generative AI-modeller må føre et register over AI-generert innhold som modellene deres har produsert, der dette kan tolkes som menneskeskapt.

Dette ville sannsynligvis være umulig for skaperne av åpne modeller. Når noen laster ned og kjører modellen lokalt, hvordan vil du overvåke hva de genererer?

Lovforslaget gjelder alle modeller som distribueres i California, uavhengig av størrelse eller hvem som har laget den. Hvis det går gjennom i senatet neste måned, vil AI-modeller som ikke overholder loven, ikke få lov til å bli distribuert eller til og med hostet i California. Beklager det HuggingFace og GitHub.

Hvis du befinner deg på feil side av loven, åpner den for bøter på "$1 million eller 5% av overtrederens globale årlige inntekter, avhengig av hva som er størst." Det tilsvarer milliarder av dollar for selskaper som Meta eller Google.

AI-regulering begynner å flytte Silicon Valleys politiske støtte mot Trump-allierte' "Gjør USA først innen kunstig intelligens" tilnærming. Hvis SB 1047 og AB 3211 blir vedtatt neste måned, kan det føre til at AI-utviklere flykter til mindre regulerte stater.

Bli med i fremtiden


ABONNER I DAG

Tydelig, kortfattet og omfattende. Få et grep om AI-utviklingen med DagligAI

Eugene van der Watt

Eugene har bakgrunn som elektroingeniør og elsker alt som har med teknologi å gjøre. Når han tar en pause fra AI-nyhetene, finner du ham ved snookerbordet.

×

GRATIS PDF EKSKLUSIV
Hold deg i forkant med DailyAI

Meld deg på vårt ukentlige nyhetsbrev og få eksklusiv tilgang til DailyAIs nyeste e-bok: "Mastering AI Tools: Din 2024-guide til økt produktivitet".

*Ved å abonnere på vårt nyhetsbrev aksepterer du vår Retningslinjer for personvern og vår Vilkår og betingelser