I en kunngjøring onsdag denne uken presenterte senatets majoritetsleder Chuck Schumer sitt etterlengtede lovforslag for håndtering av kunstig intelligens. Han advarte om at "Kongressen må bli med på AI-revolusjonen" for å utnytte og styre teknologien.
Schumer, en demokrat fra New York, antydet sin plan å starte en rekke "AI Insight Forums" senere i år. Disse forumene vil samle AI-ledere, forskere, samfunnsledere, nasjonale sikkerhetsspesialister og andre eksperter.
Resultatene fra disse møtene, sa han, vil danne grunnlaget for politiske anbefalinger til Kongressen.
I en tale ved Center for Strategic and International Studies, en tverrpolitisk ideell organisasjon med fokus på utenrikspolitikk og nasjonal sikkerhet, uttalte Schumer: "Noen eksperter spår at verden om bare noen få år kan være helt ugjenkjennelig fra den vi lever i i dag. Det er det AI er: verdensforandrende."
Schumer anerkjente de nylige endringene som kunstig intelligens har ført med seg, og advarte: "Vi har ikke noe annet valg enn å erkjenne at endringene som kunstig intelligens fører med seg, er på vei, og i mange tilfeller er de allerede her. Vi ignorerer dem på egen risiko. Mange ønsker å ignorere AI fordi det er så komplekst. Men når det gjelder kunstig intelligens, kan vi ikke være strutser som stikker hodet i sanden."
Balansering av risiko og fordeler
Schumer fremhevet også det positive potensialet som ligger i kunstig intelligens, fra bekjempelse av sykdom og hungersnød til å øke produktiviteten. På den annen side uttrykte han bekymring for de potensielle farene, blant annet arbeidsuro, feilinformasjon og svindel.
Han advarte mot mulige trusler mot valgintegriteten, blant annet falske, forvrengte uttalelser og andre former for bakvaskelse som er utformet for å skade kampanjene deres, eller chatbots som sprer feilinformasjon for å påvirke velgerne. "AI kan bli brukt til å forkludre og til og med fullstendig diskreditere valgene våre allerede neste år", sa Schumer. "Hvis vi ikke tar skritt for å sikre at kunstig intelligens bevarer landets fundament, risikerer vi selve demokratiets overlevelse."
Schumer sa at seks måneder med diskusjoner med over 100 AI-interessenter har kulminert i et lovforslag kalt "SAFE Innovation for AI"-rammeverket. Den består av fem nøkkelelementer:
- Sikkerhet: Styrke den nasjonale sikkerheten ved å håndtere AI-trusler og samtidig sikre økonomisk trygghet for arbeidstakere, særlig de med lav inntekt.
- Ansvarlighet: Fremme utviklingen av "ansvarlige" systemer for å håndtere feilinformasjon og fordommer, og beskytte opphavsmenn ved å ta opp opphavsrettslige spørsmål og bevare immaterielle rettigheter.
- Fundamenter: Sikre at AI-systemer er i tråd med demokratiske verdier, sikre valg, fremheve AIs samfunnsmessige fordeler og samtidig minimere potensielle skader, og forhindre at det kinesiske kommunistpartiet setter de globale AI-normene.
- Forklarbarhet: Bedrifter bør dokumentere hvordan AI-systemer kommer frem til et bestemt resultat på en enkel og forståelig måte. Dette vil gjøre det lettere for brukerne å forstå resonnementet bak systemets respons og dens opprinnelse.
- Innovasjon: Støtte USAs fremskritt innen AI-teknologi og fremme USA som verdensledende innen AI.
"Innovasjon må være vår nordstjerne", fortsatte Schumer. "Men hvis folk tror at AI-innovasjon ikke skjer på en trygg måte, hvis det ikke finnes tilstrekkelige sikkerhetsmekanismer - og publikum føler at innovasjonen ikke vil være trygg - vil det kvele eller til og med stoppe innovasjonen helt."
Denne oppfordringen er i tråd med advarslene fra AI-eksperter, inkludert en uttalelse fra Center for AI Safety (CAIS), signert av over 350 teknologidirektører, akademikere, offentlige personer og andre anerkjente eksperter.
Under et besøk i Bay Area på tirsdag, sa president Joe Biden møtte 8 AI-eksperterblant annet Jim Steyer, administrerende direktør i Common Sense Media, Sal Khan, grunnlegger og administrerende direktør i Khan Academy, og Tristan Harris, administrerende direktør og medgrunnlegger av Center for Humane Technology og tidligere design-etiker i Google.
Biden anerkjente den raske teknologiske utviklingen som drives av kunstig intelligens, og sa: "Vi vil se mer teknologisk endring i løpet av de neste ti årene enn vi har sett de siste 50 årene - og kanskje til og med mer enn det."
Oppfordring til tverrpolitisk samarbeid om kunstig intelligens
Schumer samarbeider tett med Det hvite hus om AI-strategien, og er vertskap for tverrpolitiske orienteringsmøter for å informere senatorene om AI.
Schumer fremhevet behovet for en innovativ tilnærming til AI-politikken, og understreket at typiske lovgivningsprosesser kanskje ikke er nok i dette raskt utviklende teknologilandskapet. Hans foreslåtte "AI Insight Forums" vil blant annet analysere opphavsrett og immaterielle rettigheter, nasjonal sikkerhet, sysselsetting og forberedelser til verstefallsscenarioer.
Schumer uttalte: "AI utvikler seg så raskt - men er også så kompleks - at det er nødvendig med en ny tilnærming. Høringer vil ikke være nok. Vi trenger en helhetlig tilnærming, for det er det AIs kompleksitet og hastighet krever."
Schumers tale viser at AI-tidsalderen er i anmarsj, og at det er på tide med tverrpolitisk samarbeid for å navigere i teknologiens ukjente territorier.
"Som så mange andre store prosjekter i vår nasjons historie må vi gå videre med tverrpolitisk samarbeid", konkluderte han. "Vi må legge ideologiske sperrer og politiske egeninteresser til side. Bare på den måten kan vi lykkes."
Regulering av kunstig intelligens i USA: en tidslinje
Sammenlignet med EU og Kina er det amerikanske AI-regelverket fortsatt noe udefinert.
Sektorspesifikke forskrifter
Selv om det ikke finnes noen bred AI-regulering i USA, har det vært en del sektorspesifikk aktivitet som gir ledetråder om fremtidig styring.
Blant annet har National Institute of Standards and Technology (NIST), Federal Trade Commission (FTC) og Food and Drug Administration (FDA) alle utstedt retningslinjer om kunstig intelligens.
NIST om kunstig intelligens
Den 26. januar 2023 offentliggjorde NIST Rammeverk for risikostyring av kunstig intelligens 1.0 (RMF).
Dette rammeverket er en frivillig veiledning for teknologiselskaper som designer, utvikler, distribuerer eller bruker AI-systemer. Målet er å håndtere risikoen forbundet med kunstig intelligens, med vekt på pålitelig og ansvarlig utvikling av AI-systemer.
RMF identifiserer sju kjennetegn ved pålitelige AI-systemer:
- Trygt: Overvåker, kontrollerer eller griper på annen måte inn i AI-systemet for å forhindre skade på eller fare for menneskers liv, helse eller eiendom.
- Sikker og motstandsdyktig: Beskytter mot angrep og håndterer potensielle større hendelser.
- Forklarlig og tolkbar: Resultatene kan forklares og er ikke en "svart boks".
- Forbedret personvern: Beskytter menneskets autonomi ved å opprettholde anonymitet, konfidensialitet og kontroll.
- Rettferdig, med kontrollert skjevhet: Fremmer likeverd og likestilling og motvirker ulike fordommer.
- Ansvarlig og transparent: Gir informasjon om AI-systemets livssyklus og opprettholder styringspraksis for å redusere potensielle skader.
- Gyldig og pålitelig: Sikrer at AI-systemet fungerer som forutsatt gjennom løpende testing og overvåking.
FTC om kunstig intelligens
FTC signaliserte økt tilsyn med virksomheter som bruker kunstig intelligens. De utstedte flere advarsler til bedrifter om å unngå urettferdig eller villedende praksis.
Tjenestemenn har antydet at eksisterende lover fortsatt gjelder for ulike KI-relaterte aktiviteter. For eksempel Lina Khan, leder av FTC, sier at politimyndigheter må være oppmerksomme på av hvordan eksisterende lover gjelder for AI-relatert diskriminering og fordommer.
FDA om kunstig intelligens
FDA kunngjorde planer om å regulere AI-drevne kliniske verktøy og utstyr for beslutningstaking i helsevesenet.
Dette var blant de første praktiske, AI-fokuserte regelverkene, første gang utgitt i 2019. FDAs planer var utvidet i 2023.
Ser fremover
Den 14. juni 2023, tverrpolitisk lovgivning ble foreslått å gjøre sosiale medieselskaper ansvarlige for skadelig innhold generert av kunstig intelligens.
Lovforslaget, som ble introdusert av senatorene Josh Hawley, en republikaner, og Richard Blumenthal, en demokrat, kan bane vei for rettslige skritt mot selskaper for skade forårsaket av AI-drevet teknologi, for eksempel dype forfalskninger.
Svindlere bruker allerede dype forfalskninger for svindel og desinformasjonsom en sikkerhetsekspert spådde kunne koste Amerikanske skattebetalere milliarder av kroner årlig.
Denne foreslåtte endringen av § 230, en lov som i dag gir nettplattformer immunitet mot å bli holdt ansvarlige for brukergenerert innhold, kommer i kjølvannet av to høyesterettssaker i forrige måned som opprettholdt omfanget av § 230-beskyttelsen.
Paragraf 230 er avgjørende for potensielle injuriesaker som involverer AI-utviklere som ChatGPT, ettersom den for øyeblikket gjør rettssaker mot AI-utganger som uløselig. I dag sikrer paragraf 230 i Communications Decency Act fra 1996 at "interaktive datatjenester" ikke holdes ansvarlige som "utgiver eller foredragsholder" for informasjon som brukerne har gitt.
Blumenthal omtalte lovforslaget som et "første skritt" mot å implementere sikkerhetstiltak rundt kunstig intelligens.
Den tverrpolitiske støtten til lovforslaget illustrerer den økende appetitten for AI-regulering, noe Schumers kunngjøringer har bekreftet.
Det er bred enighet mellom republikanere og demokrater om behovet for å styre AI, men meningene spriker når det gjelder praktisk handling.
Hjulene er i gang for en omfattende AI-regulering i USA, som kan begynne å dukke opp på samme tidspunkt som EUs AI-lov, som skal tre i kraft i 2024.