Dissekering af Det Hvide Hus' skelsættende bekendtgørelse om AI

30. oktober 2023

Biden AI-ordre

Den 30. oktober 2023 markerer et fremskridt inden for AI-styring, da præsident Joe Biden har annonceret en omfattende bekendtgørelse, der fastsætter robuste regler og retningslinjer for AI. 

Ordren forventes at indvarsle en ny æra af gennemsigtighed og standardisering for AI-virksomheder, hvilket understreger nødvendigheden af klar indholdsmærkning og vandmærkepraksis.  

"For at realisere løftet om AI og undgå risikoen er vi nødt til at styre denne teknologi, der er ingen vej udenom," sagde Biden ved underskrivelsen i Det Hvide Hus. 

Ved arrangementet talte Biden også om AI deep fakes og meddelte til stor moro for publikum: "Jeg har set en af mig ... sagde jeg, Hvad fanden var det, jeg sagde?"

Den Bestil fokuserer på øget gennemsigtighed fra AI-udviklere og etablerer en række nye standarder, især for mærkning af AI-genereret indhold. 

Det Hvide Hus har til formål at forbedre "AI-sikkerheden" gennem ordren. Den indeholder et overraskende krav om, at udviklere skal dele resultaterne af sikkerhedstests for nye AI-modeller med den amerikanske regering, hvis teknologien potentielt kan true den nationale sikkerhed.

Dette involverer Defense Production Act, som typisk er forbeholdt nationale nødsituationer.

For dem, der ikke kender til amerikansk lovgivning, er bekendtgørelser ikke lovgivning - de skaber ikke nye love eller ændrer eksisterende love. I stedet instruerer de Kongressen om politiske prioriteter.

Ordren, udgivet herindeholder adskillige deadlines, der specificerer forskellige handlinger, der skal foretages for at indføre AI-lovgivning. 

Bekendtgørelser skal være baseret på forfatningsmæssig eller lovbestemt autoritet og kan ikke bruges til at omgå Kongressen eller skabe love ensidigt.

Som følge heraf har mange fremhævet, at bekendtgørelsen mangler håndhævelsesmekanismer. Den har ikke samme vægt som kongressens lovgivning om AI.

"Kongressen er dybt polariseret og endda dysfunktionel i en sådan grad, at det er meget usandsynligt, at den vil producere nogen meningsfuld AI-lovgivning i den nærmeste fremtid", bemærker Anu Bradford, der er juraprofessor ved Columbia University.

Ordren kommer få dage før, at Storbritannien er klar til at Milepælen AI Safety Summit, hvor politikere, forskere, teknologiledere og medlemmer af civilsamfundet mødes i Bletchley Park. Vicepræsident Kamala Harris deltager. Især Kina vil også være repræsenteret på topmødet. 

"Det er vores hensigt, at de tiltag, vi gør på hjemmebane, skal tjene som model for internationale tiltag", sagde Harris ved arrangementet i Det Hvide Hus. 

Denne erklæring henleder opmærksomheden på kritik af, at ordren potentielt kan underminere et åbent internationalt samarbejde forud for AI Safety Summit.

USA var en langsom starter inden for AI-regulering, og bekendtgørelsernes karakter betyder, at de stadig er det. Det er måske frækt at foreslå, at andre lande skal følge deres vej.

Harris fortsatte med at sige, at USA ville "anvende eksisterende internationale regler og normer med det formål at fremme global orden og stabilitet og, hvor det er nødvendigt, opbygge støtte til yderligere regler og normer, som opfylder dette mål."

Hvad Det Hvide Hus har at sige

Bekendtgørelsen indfører strenge standarder for AI, der beskytter amerikanernes privatliv, fremmer retfærdighed og borgerrettigheder, beskytter forbrugere og arbejdstagere, fremmer innovation og konkurrence og styrker det amerikanske lederskab inden for AI. 

Det supplerer frivillige forpligtelser fra 15 førende virksomheder for at fremme en sikker og pålidelig udvikling af AI.

Et af de mest bemærkelsesværdige elementer i ordren er, at præsidenten har udtalt, at udviklere af "kraftfulde" AI-systemer skal dele resultater af sikkerhedstests og kritiske oplysninger med den amerikanske regering for at sikre, at disse systemer er sikre og troværdige, før de frigives til offentligheden.

National Institute of Standards and Technology (NIST) vil lede 'red teaming'-indsatsen for at teste og analysere AI-modellers sikkerhed.

Red team er processen med at afprøve og stressteste AI-modellers funktionalitet og sikkerhed. 

Med hensyn til privatlivets fred afspejler præsidentens opfordring til tværpolitisk lovgivning om databeskyttelse en forståelse af situationens presserende karakter.

Men som nævnt vil effektiviteten af disse tiltag i sidste ende afhænge af en hurtig og beslutsom indsats fra Kongressen, som historisk set har været langsom til at lovgive om teknologirelaterede emner.

Derudover har bekendtgørelsen en stærk holdning til fremme af retfærdighed og bekæmpelse af algoritmisk diskrimination med direktiver, der skal sikre retfærdighed i boliger, strafferet og føderale ydelsesprogrammer. 

Selv om det er positive skridt, vil disse initiativers succes afhænge af streng håndhævelse og løbende tilsyn. 

Ordren adresserer otte nøgleområder. 

1. Nye standarder for AI-sikkerhed

  • Udviklere af potente AI-systemer skal dele resultater af sikkerhedstests og vigtige oplysninger med den amerikanske regering.
  • Udvikling af standarder, værktøjer og tests for at sikre AI-systemers sikkerhed og pålidelighed, ledet af NIST.
  • Beskyttelse mod AI's potentiale i udviklingen af farlige biologiske materialer ved at etablere robuste standarder for screening af biologiske synteser.
  • Etablering af protokoller for at beskytte amerikanerne mod AI-aktiveret svindel og bedrag, herunder standarder for at opdage AI-genereret indhold og autentificere officiel kommunikation.
  • Lancering af et avanceret cybersikkerhedsprogram for at udnytte AI til at sikre software og netværk.

2. Beskyttelse af amerikanernes privatliv

  • At advokere for føderal støtte til udvikling og brug af privatlivsbevarende teknikker i AI.
  • Styrkelse af forskning i teknologier, der beskytter privatlivets fred.
  • Forbedring af føderale myndigheders retningslinjer for at sikre privatlivets fred i forbindelse med indsamling og brug af data, især personligt identificerbare oplysninger.

3. Fremme af retfærdighed og borgerrettigheder

  • Vejledning i at afbøde AI's potentiale til at forværre diskrimination på bolig-, rets- og beskæftigelsesområdet.
  • Fremme af retfærdighed i hele det strafferetlige system gennem udvikling af bedste praksis inden for anvendelse af kunstig intelligens.

4. Stå op for forbrugere, patienter og studerende

  • Tilskyndelse til ansvarlig brug af AI i sundhedsvæsenet til udvikling af livreddende medicin til overkommelige priser og sikring af sikkerhed i AI-involveret sundhedspraksis.
  • Fremme af AI's transformerende rolle i uddannelse, støtte til undervisere i at anvende AI-forbedrede læringsværktøjer.

5. Støtte til medarbejdere

  • Udvikling af principper og bedste praksis for at afbalancere fordele og ulemper ved AI på arbejdspladsen.
  • Gennemføre omfattende undersøgelser af AI's indvirkning på arbejdsmarkedet og styrke den føderale støtte til arbejdstagere, der står over for arbejdsforstyrrelser på grund af AI.

6. Fremme af innovation og konkurrence

  • Katalysere AI-forskning i hele landet og sikre et konkurrencedygtigt AI-økosystem.
  • Strømlining af immigrationsprocesser for højtuddannede i kritiske AI-sektorer.

7. Fremme af amerikansk lederskab i udlandet

  • Styrkelse af internationale samarbejder og rammer inden for AI.
  • Fremme af sikker og ansvarlig AI-udvikling og -anvendelse i hele verden.

8. Sikring af ansvarlig og effektiv statslig brug af AI

  • Klar vejledning til føderale agenturer om brug, indkøb og implementering af AI.
  • Forbedre erhvervelsen af AI-talenter i hele regeringen og tilbyde AI-træning til føderale medarbejdere.

Biden-Harris-regeringen forsøger at finde en balance mellem at fastholde og styrke USA's verdensførende AI-industri og samtidig bremse åbenlyse risici. 

Dybe forfalskninger og misinformation står øverst i de flestes bevidsthed, da vi nu har håndgribelige beviser på, at de kan påvirke valgstemmer. 

Med det amerikanske parlamentsvalg næste år er det måske ikke overraskende, at ordren øger presset for at vandmærke og fremhæve AI-genereret indhold, så brugerne nemt kan skelne mellem ægte og falsk. 

Teknisk set er der dog ingen robuste løsninger til at opnå dette i praksis. 

Reaktioner fra industrien

Branchens reaktioner er - naturligvis - blandede. Mange roser de hurtige fremskridt i retning af at underskrive bekendtgørelsen, mens andre fremhæver, at der mangler lovgivning og information om håndhævelsesforanstaltninger. 

Igen viser ordren, at Det Hvide Hus ønsker, at Kongressen skal handle på AI-politikken.

Den eneste undtagelse her er Defense Production Act, som er blevet påberåbt for at tvinge AI-virksomheder til at underrette regeringen, når de udvikler modeller, der interagerer med den nationale sikkerhed.

Den officielle formulering er en AI-model, der udgør en "alvorlig risiko for den nationale sikkerhed, den nationale økonomiske sikkerhed eller den nationale folkesundhed og sikkerhed".

Nogle fremhævede, at der sammenlignet med EU's AI Act ikke er nogen vejledning om gennemsigtighed i træningsdata, som flere AI-udviklere står over for retssager om.


Adnan MasoodChief AI Architect hos UST, bifaldt initiativet og sagde: "Ordren understreger et meget tiltrængt skift i den globale opmærksomhed på regulering af AI, især efter det generative AI-boom, vi alle har været vidne til i år." 

Avivah Litan, vicepræsident hos Gartner Research, bemærkede, at selvom reglerne starter stærkt, er der stadig områder, hvor mandaterne kommer til kort. Hun satte spørgsmålstegn ved definitionen af 'mest kraftfulde' AI-systemer, anvendelsen af open source AI-modeller og håndhævelse af standarder for indholdsgodkendelse på tværs af sociale medieplatforme. 

Bradley TuskCEO hos Tusk Ventures, sagde, at AI-udviklere sandsynligvis ikke vil dele proprietære data med regeringen, og sagde: "Uden en reel håndhævelsesmekanisme, som bekendtgørelsen ikke ser ud til at have, er konceptet godt, men overholdelsen kan være meget begrænset."

Randy Lariar, AI-sikkerhedsleder hos Optiv, sagde: "Jeg er bekymret for, at mange open source-modeller, som er afledt af de store grundlæggende modeller, kan være lige så risikable uden byrden ved red teaming - men dette er en start."

Ashley LeonardLeonard, administrerende direktør for Syxsense, tilføjede, at det bliver meget interessant at se, hvordan ordren bliver implementeret. "Det kræver virkelige ressourcer - budget, tid og personale - for selv de mest avancerede virksomheder at holde trit med sårbarheder og fejlrettelser", sagde Leonard.

Max Tegmark, professor ved Massachusetts Institute of Technology og formand for Future of Life Institute, understregede, at ordren skal udstyres med en plan for oprettelse og håndhævelse af lovgivning, og sagde: "Politiske beslutningstagere, herunder dem i Kongressen, er nødt til at passe på deres borgere ved at vedtage love med tænder, der tackler trusler og sikrer fremskridt."

Jaysen Gillespie, Head of Analytics and Data Science hos RTB House, så positivt på bekendtgørelsen og sagde, at AI-regulering er et emne, hvor en tværpolitisk tilgang virkelig er mulig. 

Alejandro Mayorkas fra Homeland Security sagde: "Den hidtil usete hastighed i udviklingen og indførelsen af AI udgør betydelige risici, som vi hurtigt må afbøde, sammen med muligheder for at fremme og forbedre vores arbejde på vegne af det amerikanske folk ... Det pålægger DHS at styre AI i kritisk infrastruktur og cyberspace, fremme vedtagelsen af AI-sikkerhedsstandarder globalt, reducere risikoen for, at AI bruges til at skabe masseødelæggelsesvåben, bekæmpe AI-relateret tyveri af intellektuel ejendom og sikre, at vores immigrationssystem tiltrækker talent til at udvikle ansvarlig AI i USA."

Casey Ellis, grundlægger og CTO for Bugcrowd, siger: "Direktivet pålægger udviklere at dele resultater af sikkerhedstests med den amerikanske regering og sikrer, at AI-systemer bliver grundigt undersøgt, før de frigives til offentligheden. Det fremhæver også vigtigheden af AI til at styrke cybersikkerheden, især til at opdage AI-aktiveret svindel og forbedre software- og netværkssikkerheden. Ordren støtter også udviklingen af standarder, værktøjer og tests for AI's sikkerhed og tryghed."

Et nødvendigt skridt, men udfordringer forude

Præsident Bidens bekendtgørelse om kunstig intelligens forsøger at være omfattende, men Kongressen må følge op på dens hastende karakter med lovgivning. Det er langt fra garanteret. 

Mens det etablerer strenge standarder og understreger gennemsigtighed, ansvarlighed og forebyggelse af diskriminerende praksis, vil den sande effektivitet af dette initiativ afhænge af dets implementering og evnen til at afbalancere lovgivningsmæssigt tilsyn med fremme af innovation. 

Med AI Safety Summit lige om hjørnet eskalerer samtalerne om AI's risici, og hvordan man kan afbøde dem.

Omfattende kontrol med AI er stadig afhængig af hurtig og effektiv lovgivning og evnen til at håndhæve den.

Deltag i fremtiden


TILMELD DIG I DAG

Klar, kortfattet, omfattende. Få styr på AI-udviklingen med DailyAI

Sam Jeans

Sam er videnskabs- og teknologiforfatter og har arbejdet i forskellige AI-startups. Når han ikke skriver, kan han finde på at læse medicinske tidsskrifter eller grave i kasser med vinylplader.

×

GRATIS PDF EKSKLUSIVT
Vær på forkant med DailyAI

Tilmeld dig vores ugentlige nyhedsbrev og få eksklusiv adgang til DailyAI's seneste e-bog: 'Mastering AI Tools: Din 2024-guide til forbedret produktivitet'.

*Ved at tilmelde dig vores nyhedsbrev accepterer du vores Politik for beskyttelse af personlige oplysninger og vores Vilkår og betingelser