Voorgestelde wetsvoorstellen in Californië kunnen rampzalig zijn voor de ontwikkeling van AI

31 juli 2024

  • Twee wetsvoorstellen over AI stellen zware eisen aan makers van AI-modellen
  • SB 1047 maakt AI-ontwikkelaars wettelijk aansprakelijk als anderen hun modellen op gevaarlijke manieren gebruiken
  • AB 3211 verplicht watermerken en labels voor synthetische inhoud en verbiedt modellen die dat niet doen.

Californië overweegt verschillende wetsvoorstellen om AI te reguleren. SB 1047 en AB 3211 zullen een enorme impact hebben op AI-ontwikkelaars als ze volgende maand wet worden.

De discussies over AI-risico's en hoe deze te beperken gaan door en bij gebrek aan Amerikaanse federale wetten heeft Californië wetten opgesteld die een precedent kunnen scheppen voor andere staten.

SB 1047 en AB 3211 zijn allebei goedgekeurd door de Californische Assemblee en kunnen volgende maand wet worden als de Senaat erover stemt.

Voorstanders van de wetsvoorstellen zeggen dat ze langverwachte bescherming bieden tegen de risico's van onveilige AI-modellen en door AI gegenereerde synthetische inhoud. Critici zeggen dat de eisen die in de wetsvoorstellen worden gesteld de ontwikkeling van AI in de staat de das om zullen doen omdat de eisen onwerkbaar zijn.

Hier volgt een korte blik op de twee wetsvoorstellen en waarom Californische AI-ontwikkelaars overwegen om zich in andere staten te vestigen.

SB 1047

De SB 1047 "Veilige en betrouwbare innovatie voor grensverleggende modellen voor kunstmatige intelligentie". geldt voor makers van modellen die $100 miljoen of meer kosten om te trainen.

Deze ontwikkelaars moeten extra veiligheidscontroles uitvoeren en zijn aansprakelijk als hun modellen worden gebruikt om "kritieke schade" te veroorzaken.

Het wetsvoorstel definieert "kritieke schade" als de "creatie of het gebruik van een chemisch, biologisch, radiologisch of nucleair wapen op een manier die resulteert in massaslachtoffers ... of ten minste vijfhonderd miljoen dollar ($500.000.000) schade als gevolg van cyberaanvallen op kritieke infrastructuur.

Dit klinkt misschien als een goed idee om ervoor te zorgen dat makers van geavanceerde AI-modellen voldoende zorgvuldigheid betrachten, maar is het ook praktisch?

Een autofabrikant moet aansprakelijk zijn als zijn voertuig onveilig is, maar moet hij aansprakelijk zijn als iemand met zijn voertuig iemand opzettelijk aanrijdt?

Yann LeCun, hoofd AI-wetenschapper bij Meta, denkt daar anders over. LeCun is kritisch over het wetsvoorstel en zei: "Toezichthouders moeten toepassingen reguleren, geen technologie... Technologie-ontwikkelaars aansprakelijk stellen voor slecht gebruik van producten die gebouwd zijn op basis van hun technologie zal de ontwikkeling van technologie simpelweg tegenhouden."

Het wetsvoorstel maakt ontwerpers van modellen ook aansprakelijk als iemand een afgeleide van hun model maakt en schade veroorzaakt. Die eis zou de dood betekenen voor open-gewicht modellen die, ironisch genoeg, het ministerie van Handel heeft goedgekeurd.

SB 1047 werd in mei met 32-1 stemmen aangenomen door de Senaat van Californië en zal wet worden als het in augustus wordt aangenomen door de Senaat.

AB 3211

De Californische wet op herkomst, authenticiteit en watermerken (AB 3211) moet zorgen voor transparantie en verantwoording bij het maken en verspreiden van synthetische inhoud.

Als iets door AI is gegenereerd, moet het volgens het wetsvoorstel worden gelabeld of een digitaal watermerk hebben om dat duidelijk te maken.

Het watermerk moet "maximaal onuitwisbaar ... ontworpen zijn om zo moeilijk mogelijk te verwijderen". De industrie heeft de C2PA provenance standaardmaar het is triviaal om de metadata van de inhoud te verwijderen.

Het wetsvoorstel vereist dat elk AI-systeem voor conversaties "de bevestigende toestemming van een gebruiker vraagt voordat de conversatie begint".

Dus elke keer dat je ChatGPT of Siri gebruikt, zou het gesprek moeten beginnen met 'Ik ben een AI. Begrijpt u dit en stemt u hiermee in? Elke keer weer.

Een andere vereiste is dat makers van generatieve AI-modellen een register moeten bijhouden van door AI gegenereerde inhoud die hun modellen hebben geproduceerd, voor zover deze kan worden opgevat als door mensen gegenereerd.

Dit zou waarschijnlijk onmogelijk zijn voor makers van open modellen. Hoe kun je controleren wat iemand genereert als hij het model eenmaal heeft gedownload en lokaal heeft uitgevoerd?

Het wetsvoorstel is van toepassing op elk model dat in Californië wordt gedistribueerd, ongeacht de grootte of wie het heeft gemaakt. Als het volgende maand door de Senaat komt, mogen AI-modellen die niet voldoen niet meer gedistribueerd of zelfs maar gehost worden in Californië. Sorry voor HuggingFace en GitHub.

Als je je aan de verkeerde kant van de wet bevindt, kunnen er boetes worden opgelegd van "$1 miljoen of 5% van de wereldwijde jaaromzet van de overtreder, afhankelijk van welk bedrag het hoogst is". Dat komt neer op miljarden dollars voor bedrijven als Meta of Google.

AI-regulering begint de politieke steun van Silicon Valley te verschuiven in de richting van Trump-bondgenoten' "Maak Amerika de eerste in AI" benadering. Als SB 1047 en AB 3211 volgende maand worden ondertekend, kan dit een exodus veroorzaken van AI-ontwikkelaars die naar minder gereguleerde staten vluchten.

Doe mee met de toekomst


SCHRIJF JE VANDAAG NOG IN

Duidelijk, beknopt, uitgebreid. Krijg grip op AI-ontwikkelingen met DailyAI

Eugene van der Watt

Eugene heeft een achtergrond in elektrotechniek en houdt van alles wat met techniek te maken heeft. Als hij even pauzeert van het consumeren van AI-nieuws, kun je hem aan de snookertafel vinden.

×

GRATIS PDF EXCLUSIEF
Blijf voorop met DailyAI

Meld je aan voor onze wekelijkse nieuwsbrief en ontvang exclusieve toegang tot DailyAI's nieuwste eBook: 'Mastering AI Tools: Your 2024 Guide to Enhanced Productivity'.

* Door u aan te melden voor onze nieuwsbrief accepteert u onze Privacybeleid en onze Algemene voorwaarden