Den 30. oktober 2023 markerer et fremskritt i styringen av kunstig intelligens, ettersom president Joe Biden har kunngjort en omfattende presidentordre som fastsetter robuste regler og retningslinjer for kunstig intelligens.
Ordren forventes å innlede en ny æra med åpenhet og standardisering for AI-selskaper, og understreker nødvendigheten av tydelig innholdsmerking og vannmerkepraksis.
"For å realisere løftet om kunstig intelligens og unngå risikoen, må vi styre denne teknologien, det er ingen vei utenom", sa Biden på signeringsarrangementet i Det hvite hus.
På arrangementet snakket Biden også om AI deep fakes, og kunngjorde til humor blant publikum: "Jeg har sett en av meg ... Jeg sa, Hva i helvete var det jeg sa?"
Den rekkefølge fokuserer på økt åpenhet fra AI-utviklere og etablerer en rekke nye standarder, særlig for merking av AI-generert innhold.
Det hvite hus har som mål å forbedre "AI-sikkerhet og trygghet" gjennom ordren. Den inneholder et overraskende krav om at utviklere skal dele resultatene av sikkerhetstester for nye AI-modeller med amerikanske myndigheter dersom teknologien potensielt kan true den nasjonale sikkerheten.
Dette involverer Defense Production Act, som vanligvis er forbeholdt nasjonale krisesituasjoner.
For dem som ikke er kjent med amerikansk lovgivning, kan det opplyses at presidentdekreter ikke er lovgivning - de skaper ikke nye lover eller endrer eksisterende lover. I stedet gir de Kongressen instrukser om politiske prioriteringer.
Rekkefølgen, publisert herinneholder en rekke tidsfrister som spesifiserer ulike tiltak som må iverksettes for å innføre AI-lovgivning.
Executive orders må være basert på konstitusjonell eller lovfestet myndighet og kan ikke brukes til å omgå Kongressen eller ensidig skape lover.
Som et resultat av dette har mange fremhevet at dekretet mangler håndhevingsmekanismer. Den har ikke samme tyngde som kongressens lovgivning om kunstig intelligens.
"Kongressen er dypt polarisert og til og med dysfunksjonell i en slik grad at det er svært usannsynlig at den kommer til å produsere noen meningsfull AI-lovgivning i nær fremtid", sier Anu Bradford, jusprofessor ved Columbia University.
Ordren kommer dager før Storbritannia skal innlede milepælen AI Safety Summit, der politikere, forskere, teknologiledere og medlemmer av det sivile samfunn møtes i Bletchley Park. Visepresident Kamala Harris deltar. Kina vil også være representert på toppmøtet.
"Vi har til hensikt at tiltakene vi iverksetter på hjemmebane, skal tjene som en modell for internasjonal handling", sa Harris på arrangementet i Det hvite hus.
Denne uttalelsen retter oppmerksomheten mot kritikken om at ordren potensielt kan undergrave et åpent internasjonalt samarbeid i forkant av AI Safety Summit.
USA var en sinke når det gjelder regulering av kunstig intelligens, og på grunn av sine dekreter er de fortsatt en sinke. Det er kanskje dristig å foreslå at andre land bør følge etter.
Harris fortsatte med å si at USA ville "anvende eksisterende internasjonale regler og normer med det formål å fremme global orden og stabilitet, og der det er nødvendig, bygge støtte for ytterligere regler og normer som oppfyller dette målet".
Hva Det hvite hus har å si
Ordren innfører strenge standarder for kunstig intelligens, som ivaretar amerikanernes personvern, fremmer rettferdighet og borgerrettigheter, beskytter forbrukere og arbeidstakere, fremmer innovasjon og konkurranse og styrker USAs lederskap innen kunstig intelligens.
Det utfyller frivillige forpliktelser fra 15 ledende selskaper for å fremme en trygg og pålitelig utvikling av kunstig intelligens.
Et av de mest bemerkelsesverdige elementene i ordren er at presidenten har uttalt at utviklere av "kraftige" AI-systemer må dele resultater fra sikkerhetstester og kritisk informasjon med amerikanske myndigheter, med sikte på å sikre at disse systemene er trygge og pålitelige før de lanseres for offentligheten.
National Institute of Standards and Technology (NIST) vil lede "red teaming"-arbeidet med å teste og analysere sikkerheten til AI-modeller.
Red team er prosessen med å teste og stressteste AI-modellens funksjonalitet og sikkerhet.
Når det gjelder personvern, gjenspeiler presidentens oppfordring til tverrpolitisk lovgivning om personvern en forståelse av hvor presserende situasjonen er.
Som nevnt vil imidlertid effektiviteten av disse tiltakene til syvende og sist avhenge av at Kongressen, som historisk sett har vært treg med å lovfeste teknologirelaterte spørsmål, handler raskt og besluttsomt.
I tillegg tar presidentordren et sterkt standpunkt for å fremme rettferdighet og bekjempe algoritmisk diskriminering, med direktiver for å sikre rettferdighet i boligmarkedet, strafferettspleien og føderale stønadsprogrammer.
Selv om dette er positive tiltak, vil suksessen til disse initiativene være avhengig av streng håndheving og kontinuerlig tilsyn.
Bestillingen tar for seg åtte viktige områder.
Slik vil president Bidens banebrytende dekret om kunstig intelligens sikre at USA leder an i denne perioden med teknologiske endringer, samtidig som amerikanerne er trygge. pic.twitter.com/SvBPxiZk3M
- Det hvite hus (@WhiteHouse) 30. oktober 2023
1. Nye standarder for AI-sikkerhet og trygghet
- Utviklere av potente AI-systemer må dele resultater fra sikkerhetstester og annen viktig informasjon med amerikanske myndigheter.
- Utvikling av standarder, verktøy og tester for å sikre at KI-systemer er sikre og pålitelige, ledet av NIST.
- Beskyttelse mot AIs potensial i utviklingen av farlige biologiske materialer ved å etablere robuste standarder for screening av biologiske synteser.
- Etablere protokoller for å beskytte amerikanere mot svindel og bedrageri basert på kunstig intelligens, inkludert standarder for å oppdage innhold generert av kunstig intelligens og autentisere offisiell kommunikasjon.
- Lanserer et avansert cybersikkerhetsprogram for å utnytte kunstig intelligens i sikringen av programvare og nettverk.
2. Beskyttelse av amerikanernes privatliv
- Arbeide for føderal støtte til utvikling og bruk av personvernbeskyttende teknikker innen kunstig intelligens.
- Styrking av forskning på teknologi som ivaretar personvernet.
- Forbedre føderale myndigheters retningslinjer for å sikre personvernet i forbindelse med innsamling og bruk av data, spesielt personlig identifiserbar informasjon.
3. Fremme av rettferdighet og sivile rettigheter
- Veiledning for å redusere AIs potensial for å forverre diskriminering på bolig-, justis- og arbeidsmarkedet.
- Fremme rettferdighet i hele strafferettssystemet gjennom å utvikle beste praksis for bruk av kunstig intelligens.
4. Stå opp for forbrukere, pasienter og studenter
- Oppmuntre til ansvarlig bruk av kunstig intelligens i helsevesenet for å utvikle rimelige, livreddende medisiner og sikre sikkerheten ved bruk av kunstig intelligens i helsevesenet.
- Legge til rette for at kunstig intelligens kan spille en transformativ rolle i utdanningen, og hjelpe lærere med å ta i bruk AI-forbedrede læringsverktøy.
5. Støtte til arbeidstakere
- Utvikle prinsipper og beste praksis for å balansere fordelene og ulempene ved AI på arbeidsplassen.
- Gjennomføre omfattende studier av hvordan kunstig intelligens påvirker arbeidsmarkedet, og styrke den føderale støtten til arbeidstakere som står overfor forstyrrelser på arbeidsmarkedet på grunn av kunstig intelligens.
6. Fremme innovasjon og konkurranse
- Katalysere AI-forskning over hele landet og sikre et konkurransedyktig AI-økosystem.
- Effektivisering av innvandringsprosesser for høyt kvalifiserte personer i kritiske AI-sektorer.
7. Fremme amerikansk lederskap i utlandet
- Styrke internasjonalt samarbeid og rammeverk innen kunstig intelligens.
- Fremme trygg og ansvarlig utvikling og bruk av kunstig intelligens over hele verden.
8. Sikre ansvarlig og effektiv bruk av kunstig intelligens i offentlig sektor
- Gi klare retningslinjer for føderale etater om bruk, anskaffelse og utplassering av kunstig intelligens.
- Forbedre anskaffelsen av AI-talenter i hele regjeringen og tilby AI-opplæring til føderalt ansatte.
Biden-Harris-administrasjonen forsøker å finne en balanse mellom å beholde og styrke USAs verdensledende AI-industri og samtidig hindre åpenbare risikoer.
Dype forfalskninger og feilinformasjon er på toppen av de flestes bevissthet, ettersom vi nå har håndfaste bevis på at de kan påvirke valgstemmer.
Med det amerikanske parlamentsvalget neste år er det kanskje ikke overraskende at ordren øker presset for å vannmerke og fremheve AI-generert innhold slik at brukerne enkelt kan skille ekte fra falskt.
Teknisk sett finnes det imidlertid ingen robuste løsninger for å oppnå dette i praksis.
Reaksjoner fra bransjen
Reaksjonene fra bransjen er - naturlig nok - blandede. Mange roser den raske fremgangen i arbeidet med å undertegne ordren, mens andre fremhever at det mangler lovgivning og informasjon om håndhevingstiltak.
Igjen indikerer ordren at Det hvite hus ønsker at Kongressen skal ta stilling til AI-politikken.
Det eneste unntaket her er Defense Production Act, som har blitt påberopt for å tvinge AI-selskaper til å varsle myndighetene når de utvikler modeller som har innvirkning på rikets sikkerhet.
Den offisielle ordlyden er en AI-modell som utgjør en "alvorlig risiko for nasjonal sikkerhet, nasjonal økonomisk sikkerhet eller nasjonal folkehelse og sikkerhet".
AI-bekendtgørelsen er litt latterlig og ganske vanskelig å håndheve.
Her er problemene -
1. Enhver stiftelsesmodell som utgjør en alvorlig risiko for rikets sikkerhet - Hvordan avgjør man om noe er en "alvorlig risiko for rikets sikkerhet!"?
Hvis dette handler om...
- Bindu Reddy (@bindureddy) 30. oktober 2023
Noen fremhevet at sammenlignet med EUs AI-lov finnes det ingen retningslinjer for åpenhet om opplæringsdata, noe som har ført til at flere AI-utviklere har blitt saksøkt.
Fraværende fra ny ordre:
AI-selskaper må avsløre opplæringssettet sitt.
For å utvikle sikker AI må vi vite hva modellen er trent på.
Hvorfor tar ikke AI-sikkerhetsorganisasjonene til orde for dette?https://t.co/yjr21bNIK4
- Damek Davis (@damekdavis) 30. oktober 2023
Adnan Masood, Chief AI Architect ved UST, applauderte initiativet og uttalte: "Ordren understreker et sårt tiltrengt skifte i den globale oppmerksomheten rundt regulering av AI, spesielt etter den generative AI-boomen vi alle har vært vitne til i år."
Avivah Litan, visepresident i Gartner Research, bemerket at selv om reglene begynner sterkt, er det fortsatt områder der mandatene kommer til kort. Hun stilte spørsmål ved definisjonen av "kraftigste" AI-systemer, anvendelsen på AI-modeller med åpen kildekode og håndhevelsen av standarder for innholdsautentisering på tvers av sosiale medieplattformer.
Bradley Tusk, administrerende direktør i Tusk Ventures, sa at AI-utviklere sannsynligvis ikke vil dele proprietære data med myndighetene, og uttalte: "Uten en reell håndhevingsmekanisme, som den utøvende ordren ikke ser ut til å ha, er konseptet flott, men etterlevelsen kan være svært begrenset."
Randy Lariar, AI-sikkerhetsleder i Optiv, sier: "Jeg er bekymret for at mange modeller med åpen kildekode, som er avledet fra de store grunnmodellene, kan være like risikable uten byrden med red teaming - men dette er en begynnelse."
Ashley LeonardLeonard, administrerende direktør i Syxsense, la til at det blir svært interessant å se hvordan pålegget blir implementert. "Det krever store ressurser - budsjett, tid og personale - for selv de mest avanserte selskapene å holde tritt med sårbarheter og feilrettinger", sier Leonard.
Max Tegmark, professor ved Massachusetts Institute of Technology og president for Future of Life Institute, understreket at ordren må utstyres med en plan for å skape og håndheve lovgivning, og sa: "Politikerne, inkludert de i Kongressen, må ta vare på innbyggerne sine ved å vedta lover med tenner som håndterer trusler og sikrer fremgang."
Jaysen Gillespie, Head of Analytics and Data Science i RTB House, så positivt på dekretet, og uttalte at AI-regulering er et tema der en tverrpolitisk tilnærming virkelig er mulig.
Alejandro Mayorkas fra Homeland Security sa: "Den enestående hastigheten i utviklingen og adopsjonen av AI utgjør betydelige risikoer som vi raskt må redusere, sammen med muligheter til å fremme og forbedre arbeidet vårt på vegne av det amerikanske folket ... Det instruerer DHS om å håndtere AI i kritisk infrastruktur og cyberspace, fremme adopsjonen av AI-sikkerhetsstandarder globalt, redusere risikoen for at AI brukes til å lage masseødeleggelsesvåpen, bekjempe AI-relatert tyveri av immateriell eiendom og sikre at innvandringssystemet vårt tiltrekker seg talent for å utvikle ansvarlig AI i USA."
Casey Ellis, grunnlegger og CTO i Bugcrowd, sier: "Direktivet pålegger utviklere å dele resultater fra sikkerhetstester med amerikanske myndigheter, noe som sikrer at AI-systemer blir grundig kontrollert før de slippes ut til offentligheten. Det fremhever også viktigheten av kunstig intelligens for å styrke cybersikkerheten, særlig når det gjelder å oppdage svindel med kunstig intelligens og forbedre programvare- og nettverkssikkerheten. Ordren fremmer også utviklingen av standarder, verktøy og tester for AI-sikkerhet."
Et nødvendig skritt, men utfordringer i vente
President Bidens presidentordre om kunstig intelligens forsøker å være omfattende, men Kongressen må følge opp det presserende behovet med lovgivning. Det er langt fra garantert.
Selv om det fastsetter strenge standarder og legger vekt på åpenhet, ansvarlighet og forebygging av diskriminerende praksis, vil den virkelige effektiviteten av dette initiativet avhenge av gjennomføringen og evnen til å balansere reguleringstilsyn med å fremme innovasjon.
Med AI Safety Summit nært forestående, eskalerer samtalene rundt risikoene ved AI og hvordan man kan redusere dem.
Omfattende kontroll med kunstig intelligens er fortsatt avhengig av rask og effektiv lovgivning og evnen til å håndheve den.