USA intensiverer diskussioner om regulering af AI - en tidslinje

21. juni 2023

AI-regulering

I en meddelelse i onsdags præsenterede senatets flertalsleder Chuck Schumer sit længe ventede lovforslag til håndtering af AI. Han advarede om, at "Kongressen må deltage i AI-revolutionen" for at udnytte og styre teknologien. 

Schumer, en demokrat fra New York, indikerede sin plan til at starte en række "AI Insight Forums" senere på året. Disse fora vil samle AI-ledere, forskere, samfundsledere, nationale sikkerhedsspecialister og andre eksperter.

Resultaterne af disse møder, sagde han, vil tjene som grundlag for politiske anbefalinger til Kongressen. 

I en tale på Center for Strategic and International Studies, en tværpolitisk nonprofit-organisation med fokus på udenrigspolitik og national sikkerhed, sagde Schumer: "Nogle eksperter forudser, at verden i løbet af få år kan blive helt uigenkendelig fra den, vi lever i i dag. Det er, hvad AI er: verdensforandrende."

I erkendelse af de seneste ændringer, som AI har medført, advarede Schumer: "Vi har intet andet valg end at erkende, at AI's ændringer er på vej og i mange tilfælde allerede er her. Vi ignorerer dem på egen risiko. Mange ønsker at ignorere AI, fordi det er så komplekst. Men når det handler om AI, kan vi ikke være strudse, der stikker hovedet i sandet."

Afvejning af risici og fordele

Schumer fremhævede også det positive potentiale i AI, fra Bekæmpelse af sygdom og hungersnød til at øge produktiviteten. På den anden side gav han udtryk for bekymring over de potentielle farer, herunder omvæltninger på arbejdsmarkedet, misinformation og svindel.

Han advarede om mulige trusler mod valgets integritet, herunder falske forvrængede udtalelser og andre former for bagvaskelse, der er designet til at skade deres kampagner, eller chatbots, der spreder misinformation for at påvirke vælgerne. "AI kan bruges til at forplumre og endda helt miskreditere vores valg allerede næste år," sagde Schumer. "Hvis vi ikke tager skridt til at sikre, at kunstig intelligens bevarer vores lands fundament, risikerer vi selve vores demokratis overlevelse."

Schumer sagde, at 6 måneders diskussioner med over 100 AI-interessenter har kulmineret i et lovforslag kaldet "SAFE Innovation for AI"-rammen. Den består af 5 nøgleelementer: 

  • Sikkerhed: Styrke den nationale sikkerhed ved at imødegå AI-trusler og samtidig sikre økonomisk sikkerhed for arbejdstagere, især dem med lav indkomst.
  • Ansvarlighed: Fremme udviklingen af "ansvarlige" systemer til at håndtere misinformation og fordomme og beskytte skabere ved at tage fat på ophavsretlige spørgsmål og bevare intellektuelle ejendomsrettigheder.
  • Fundamenter: Sikre, at AI-systemer er i overensstemmelse med demokratiske værdier, beskytte valg, fremhæve AI's samfundsmæssige fordele og samtidig minimere potentielle skader og forhindre det kinesiske kommunistparti i at sætte de globale AI-normer.
  • Forklarlighed: Virksomheder bør dokumentere, hvordan AI-systemer når frem til et bestemt resultat på en enkel og forståelig måde. Det vil gøre det muligt for brugerne bedre at forstå ræsonnementet bag systemets særlige svar og dets oprindelse.
  • Innovation: Støt USA's fremskridt inden for AI-teknologier og promover USA som verdens førende inden for AI. 

"Innovation skal være vores nordstjerne", fortsatte Schumer. "Men hvis folk tror, at AI-innovation ikke sker på en sikker måde, hvis der ikke er tilstrækkelige sikkerhedsforanstaltninger - og offentligheden føler, at innovation ikke er sikker - vil det kvæle eller endda helt stoppe innovationen."

Denne opfordring til handling stemmer overens med presserende advarsler fra AI-eksperter, herunder en erklæring fra Center for AI Safety (CAIS) underskrevet af over 350 tech-chefer, akademikere, offentlige personer og andre bemærkelsesværdige eksperter. 

Under et besøg i Bay Area tirsdag sagde præsidenten Joe Biden mødtes med 8 AI-eksperterBlandt andet Jim Steyer, CEO for Common Sense Media; Sal Khan, grundlægger og CEO for Khan Academy; og Tristan Harris, administrerende direktør og medstifter af Center for Humane Technology og tidligere design-etiker hos Google.

Biden anerkendte den hurtige teknologiske udvikling drevet af kunstig intelligens og sagde: "Vi vil se mere teknologisk udvikling i de næste 10 år, end vi har set i de sidste 50 år - og måske endda mere end det."

Tværpolitisk samarbejde opfordres om AI

Schumer samarbejder tæt med Det Hvide Hus om AI-strategi og er vært for tværpolitiske briefinger for at uddanne senatorer om AI.

Schumer fremhævede behovet for en innovativ tilgang til at navigere i AI-politikken og understregede, at typiske lovgivningsprocesser måske ikke er nok i dette hurtigt udviklende teknologilandskab. Hans foreslåede "AI Insight Forums" vil blandt andet analysere ophavsret og intellektuel ejendomsret, national sikkerhed, beskæftigelse og forberedelse på worst-case-scenarier.

Schumer sagde: "AI udvikler sig så hurtigt - men er også så kompleks - at der er brug for en ny tilgang. Høringer vil ikke være nok. Vi har brug for en samlet tilgang, for det er, hvad AI's kompleksitet og hastighed kræver."

Schumers tale viser, at AI's tidsalder er ved at indfinde sig, og det er tid til tværpolitisk samarbejde for at navigere i teknologiens ukendte territorier.

"Ligesom mange andre store projekter i vores nations historie må vi gå videre med topartisystem og samarbejde", konkluderede han. "Vi må lægge ideologiske bindinger og politiske egeninteresser til side. Det er den eneste måde, vores indsats kan lykkes på."

AI-regulering i USA: en tidslinje

Sammenlignet med EU og Kina er USA's AI-reguleringslandskab stadig noget udefineret. 

Sektorspecifikke regler 

Mens der mangler bred AI-regulering i USA, har der været nogle sektorspecifikke aktiviteter, som giver et fingerpeg om fremtidig styring.

Især National Institute of Standards and Technology (NIST), Federal Trade Commission (FTC) og Food and Drug Administration (FDA) har alle udstedt retningslinjer for AI.

NIST om kunstig intelligens

Den 26. januar 2023 udgav NIST den Ramme for risikostyring af kunstig intelligens 1.0 (RMF)

Denne ramme er en frivillig vejledning til teknologivirksomheder, der designer, udvikler, implementerer eller bruger AI-systemer. Den har til formål at styre de risici, der er forbundet med AI, og lægger vægt på pålidelig og ansvarlig udvikling af AI-systemer.

RMF identificerer 7 karakteristika for pålidelige AI-systemer:

  1. Sikker: Overvåger, kontrollerer eller griber på anden måde ind i AI-systemet for at forhindre skade på eller fare for menneskers liv, helbred eller ejendom.
  2. Sikker og modstandsdygtig: Beskytter mod angreb og håndterer potentielle større hændelser. 
  3. Kan forklares og fortolkes: Output kan forklares og er ikke en 'sort boks'. 
  4. Forbedret privatliv: Beskytter menneskelig autonomi ved at opretholde anonymitet, fortrolighed og kontrol.
  5. Fair, med styret bias: Fremmer retfærdighed og lighed og mindsker forskellige fordomme.
  6. Ansvarlig og gennemsigtig: Giver information om AI-systemets livscyklus og opretholder styringspraksisser for at reducere potentielle skader.
  7. Gyldig og pålidelig: Sikrer, at AI-systemet fungerer efter hensigten gennem løbende test og overvågning.

FTC om kunstig intelligens

FTC signalerede øget kontrol med virksomheder, der bruger AI. Den udsendte forskellige advarsler til virksomheder om at undgå unfair eller vildledende praksis. 

Embedsmænd har indikeret, at eksisterende love stadig gælder for forskellige AI-relaterede aktiviteter. For eksempel Lina Khan, formand for FTC, siger, at håndhævelsesorganer skal være opmærksomme af, hvordan eksisterende love gælder for AI-relateret diskrimination og fordomme. 

FDA om kunstig intelligens

FDA annoncerede planer om at regulere AI-drevne kliniske værktøjer og udstyr til beslutningstagning i sundhedssektoren. 

Dette var en af de første praktiske AI-fokuserede lovgivningsartikler, udgivet første gang i 2019. FDA's planer var udvidet i 2023.

Se fremad

Den 14. juni 2023, topartisk lovgivning blev foreslået at gøre sociale medievirksomheder ansvarlige for skadeligt indhold genereret af AI. 

Lovforslaget, som er fremsat af senatorerne Josh Hawley (republikaner) og Richard Blumenthal (demokrat), kan bane vejen for retssager mod virksomheder for skader forårsaget af AI-drevet teknologi, som f.eks. deep fakes. 

Svindlere bruger allerede dybe forfalskninger til Svindel og misinformationhvilket en sikkerhedsekspert forudså kunne koste Amerikanske skatteydere milliarder årligt.

Denne foreslåede ændring af § 230, en lov, der i øjeblikket giver onlineplatforme immunitet mod at blive holdt ansvarlige for brugergenereret indhold, kommer i kølvandet på to højesteretssager i sidste måned, der bekræftede omfanget af § 230-beskyttelsen. 

Afsnit 230 er afgørende for potentielle injuriesager, der involverer AI-udviklere som ChatGPT, da det i øjeblikket gør Retssager mod AI-output som uløseligt. I øjeblikket sikrer § 230 i Communications Decency Act fra 1996, at "interaktive computertjenester" ikke holdes ansvarlige som "udgiver eller taler" af information, der leveres af brugerne. 

Blumenthal omtalte lovforslaget som et "første skridt" i retning af at implementere sikkerhedsforanstaltninger omkring AI.

Den tværpolitiske opbakning til lovforslaget illustrerer den stigende appetit på AI-regulering, som Schumers udmeldinger har bekræftet. 

Der er bred enighed mellem republikanere og demokrater om behovet for at styre AI, men der er forskellige meninger om praktisk handling. 

Hjulene er i bevægelse for en omfattende AI-regulering i USA, som kan begynde at dukke op på samme tidspunkt som EU's AI-lov, der skal træde i kraft i 2024. 

Deltag i fremtiden


TILMELD DIG I DAG

Klar, kortfattet, omfattende. Få styr på AI-udviklingen med DailyAI

Sam Jeans

Sam er videnskabs- og teknologiforfatter og har arbejdet i forskellige AI-startups. Når han ikke skriver, kan han finde på at læse medicinske tidsskrifter eller grave i kasser med vinylplader.

×

GRATIS PDF EKSKLUSIVT
Vær på forkant med DailyAI

Tilmeld dig vores ugentlige nyhedsbrev og få eksklusiv adgang til DailyAI's seneste e-bog: 'Mastering AI Tools: Din 2024-guide til forbedret produktivitet'.

*Ved at tilmelde dig vores nyhedsbrev accepterer du vores Politik for beskyttelse af personlige oplysninger og vores Vilkår og betingelser