Dissekering av Vita husets viktiga verkställande order om AI

30 oktober 2023

Biden AI-order

Den 30 oktober 2023 innebär ett framsteg inom AI-styrning då president Joe Biden har tillkännagivit en omfattande exekutiv order som fastställer robusta regler och riktlinjer för AI. 

Ordern förväntas leda till en ny era av transparens och standardisering för AI-företag och understryker nödvändigheten av tydlig innehållsmärkning och vattenstämpling.  

"För att förverkliga löftet om AI och undvika riskerna måste vi styra den här tekniken, det finns ingen väg runt det", sa Biden vid signeringen i Vita huset. 

Vid evenemanget talade Biden också om AI-djupa förfalskningar och meddelade till humor bland publiken: "Jag har sett en av mig ... Jag sa, i helvete sa jag det?"

Den ordning fokuserar på ökad transparens från AI-utvecklare och fastställer en rad nya standarder, särskilt för märkning av AI-genererat innehåll. 

Vita huset har som mål att förbättra "AI-säkerhet och trygghet" genom ordern. Den innehåller ett överraskande krav på utvecklare att dela med sig av resultaten från säkerhetstester för nya AI-modeller till den amerikanska regeringen om tekniken potentiellt kan hota den nationella säkerheten.

Detta gäller Defense Production Act, som vanligtvis är reserverad för nationella nödsituationer.

För dem som inte är bekanta med amerikansk lagstiftning är exekutiva order inte lagstiftning - de skapar inte nya lagar eller ändrar befintliga lagar. Istället instruerar de kongressen om politiska prioriteringar.

Ordningen, publicerad härinnehåller dock ett stort antal tidsfrister som anger olika åtgärder som måste vidtas för att få till stånd AI-lagstiftning. 

Exekutiva order måste baseras på konstitutionell eller lagstadgad auktoritet och kan inte användas för att kringgå kongressen eller skapa lagar ensidigt.

Som ett resultat av detta har många påpekat att den verkställande ordern saknar verkställighetsmekanismer. Den har inte samma tyngd som kongressens lagstiftning om AI.

"Kongressen är djupt polariserad och till och med så dysfunktionell att det är mycket osannolikt att den kommer att ta fram någon meningsfull AI-lagstiftning inom den närmaste framtiden", konstaterar Anu Bradford, juridikprofessor vid Columbia University.

Ordern kommer dagar innan Storbritannien är inställd på att milstolpe AI Safety Summitdär politiker, forskare, teknikchefer och medlemmar av det civila samhället samlas på Bletchley Park. Vicepresident Kamala Harris deltar. Noterbart är att även Kina kommer att vara representerat vid toppmötet. 

"Vi har för avsikt att de åtgärder vi vidtar på hemmaplan ska fungera som en modell för internationella åtgärder", sade Harris vid evenemanget i Vita huset. 

Detta uttalande uppmärksammar kritiken om att ordern potentiellt skulle kunna underminera ett öppet internationellt samarbete inför AI Safety Summit.

USA var ett långsamt land när det gäller reglering av AI, och på grund av de exekutiva ordernas karaktär är man det fortfarande. Det är kanske fräckt att föreslå att andra länder ska följa USA:s bana.

Harris fortsatte med att säga att USA kommer att "tillämpa befintliga internationella regler och normer i syfte att främja global ordning och stabilitet, och vid behov bygga upp stöd för ytterligare regler och normer som uppfyller detta mål".

Vad Vita huset har att säga

Ordern inför strikta standarder för AI, skyddar amerikanernas integritet, främjar rättvisa och medborgerliga rättigheter, skyddar konsumenter och arbetstagare, främjar innovation och konkurrens samt stärker USA:s ledarskap inom AI. 

Den kompletterar frivilliga åtaganden från 15 ledande företag för att främja en säker och trovärdig utveckling av AI.

Ett av de mest anmärkningsvärda inslagen i ordern är att presidenten har sagt att utvecklare av "kraftfulla" AI-system måste dela med sig av resultat från säkerhetstester och kritisk information till den amerikanska regeringen, i syfte att säkerställa att dessa system är säkra och pålitliga innan de släpps ut till allmänheten.

National Institute of Standards and Technology (NIST) kommer att leda "red teaming"-insatser för att testa och analysera säkerheten hos AI-modeller.

Red team är en process där AI-modellernas funktionalitet och säkerhet undersöks och stresstestas. 

När det gäller integritetsskydd visar presidentens uppmaning till en partiöverskridande lagstiftning om datasekretess att han förstår hur brådskande situationen är.

Som nämnts kommer dock effektiviteten i dessa åtgärder i slutändan att bero på ett snabbt och beslutsamt agerande från kongressen, som historiskt sett har varit långsam med att lagstifta om teknikrelaterade frågor.

Dessutom tar den verkställande ordern ett starkt ställningstagande för att främja rättvisa och bekämpa algoritmisk diskriminering, med direktiv för att säkerställa rättvisa i bostäder, straffrätt och federala förmånsprogram. 

Även om detta är positiva steg kommer framgången för dessa initiativ att vara beroende av en rigorös tillämpning och kontinuerlig tillsyn. 

Beställningen omfattar åtta nyckelområden. 

1. Nya standarder för AI-säkerhet och trygghet

  • Utvecklare av kraftfulla AI-system måste dela med sig av resultat från säkerhetstester och viktig information till den amerikanska regeringen.
  • Utveckling av standarder, verktyg och tester för att säkerställa AI-systemens säkerhet och tillförlitlighet, under ledning av NIST.
  • Skydd mot AI:s potential att konstruera farliga biologiska material genom att fastställa robusta standarder för screening av biologiska synteser.
  • Upprätta protokoll för att skydda amerikaner från AI-baserat bedrägeri och vilseledande, inklusive standarder för att upptäcka AI-genererat innehåll och autentisera officiell kommunikation.
  • Lansering av ett avancerat cybersäkerhetsprogram för att utnyttja AI för att säkra programvara och nätverk.

2. Skydd av amerikanernas privatliv

  • Förespråkar federalt stöd för utveckling och användning av integritetsskyddande tekniker inom AI.
  • Stärka forskningen inom integritetsskyddande teknik.
  • Förbättra federala myndigheters riktlinjer för att säkerställa integritet vid insamling och användning av data, särskilt personligt identifierbar information.

3. Främja rättvisa och medborgerliga rättigheter

  • Tillhandahålla vägledning för att minska AI:s potential att förvärra diskriminering i fråga om bostäder, rättvisa och sysselsättning.
  • Främja rättvisa inom hela det straffrättsliga systemet genom att utveckla bästa praxis för AI-tillämpning.

4. Stå upp för konsumenter, patienter och studenter

  • Uppmuntra ansvarsfull användning av AI inom hälso- och sjukvården för att utveckla prisvärda, livräddande mediciner och garantera säkerheten i AI-involverade hälso- och sjukvårdsmetoder.
  • Underlätta AI:s förändrande roll inom utbildning, stödja lärare i att använda AI-förbättrade inlärningsverktyg.

5. Stöd till arbetstagare

  • Utveckla principer och bästa praxis för att balansera fördelar och nackdelar med AI på arbetsplatsen.
  • Genomföra omfattande studier av AI:s inverkan på arbetsmarknaden och stärka det federala stödet till arbetstagare som drabbas av störningar på arbetsmarknaden på grund av AI.

6. Främja innovation och konkurrens

  • Katalysera AI-forskning i hela landet och säkerställa ett konkurrenskraftigt AI-ekosystem.
  • Effektivisering av invandringsprocesser för högkvalificerade personer inom kritiska AI-sektorer.

7. Främja amerikanskt ledarskap utomlands

  • Stärka internationella samarbeten och ramverk inom AI.
  • Främja säker och ansvarsfull utveckling och användning av AI över hela världen.

8. Säkerställa en ansvarsfull och effektiv statlig användning av AI

  • Tillhandahålla tydlig vägledning för federala myndigheter om användning, upphandling och utplacering av AI.
  • Förbättra AI-talangförvärv i hela regeringen och tillhandahålla AI-utbildning till federala anställda.

Biden-Harris-administrationen försöker hitta en balans mellan att behålla och stärka USA:s världsledande AI-industri och samtidigt motverka uppenbara risker. 

Djupa förfalskningar och felaktig information är det som de flesta tänker på, eftersom vi nu har konkreta bevis för att de kan påverka valresultatet. 

Med tanke på valet i USA nästa år är det kanske inte förvånande att ordern ökar trycket på att vattenstämpla och lyfta fram AI-genererat innehåll så att användarna enkelt kan skilja äkta från falskt. 

Tekniskt sett finns det dock inga robusta lösningar för att uppnå detta i praktiken. 

Reaktionerna från branschen

Reaktionerna från branschen är - naturligtvis - blandade. Många berömmer de snabba framstegen mot att underteckna ordern, medan andra betonar att lagstiftning och information om verkställighetsåtgärder saknas. 

Återigen indikerar ordern att Vita huset vill att kongressen ska agera på AI-policyn.

Det enda undantaget här är Defense Production Act, som har åberopats för att tvinga AI-företag att meddela regeringen när de utvecklar modeller som interagerar med nationell säkerhet.

Den officiella formuleringen är en AI-modell som utgör en "allvarlig risk för den nationella säkerheten, den nationella ekonomiska säkerheten eller den nationella folkhälsan och säkerheten".

Några påpekade att det, jämfört med EU:s AI Act, inte finns någon vägledning om insyn i utbildningsdata, vilket flera AI-utvecklare har stämts för.


Adnan MasoodChief AI Architect vid UST, applåderade initiativet och sa: "Ordern understryker en välbehövlig förändring i den globala uppmärksamheten kring reglering av AI, särskilt efter den generativa AI-boom som vi alla har bevittnat i år." 

Avivah LitanVice President på Gartner Research, konstaterade att även om reglerna börjar starkt finns det fortfarande områden där mandaten inte räcker till. Hon ifrågasatte definitionen av de "mest kraftfulla" AI-systemen, tillämpningen på AI-modeller med öppen källkod och upprätthållandet av standarder för autentisering av innehåll på sociala medieplattformar. 

Bradley Tusk, VD på Tusk Ventures, sa att AI-utvecklare sannolikt inte kommer att dela med sig av äganderättsligt skyddade uppgifter till regeringen och konstaterade: "Utan en verklig verkställighetsmekanism, som den verkställande ordern inte verkar ha, är konceptet bra men efterlevnaden kan vara mycket begränsad."

Randy LariarJag oroar mig för att många modeller med öppen källkod, som härrör från de stora grundmodellerna, kan vara lika riskabla utan bördan av red teaming - men det här är en början."

Ashley LeonardLeonard, VD för Syxsense, tillade att det kommer att bli mycket intressant att se hur ordern implementeras. "Det krävs verkliga resurser - budget, tid och personal - för att även de mest avancerade företagen ska kunna hålla jämna steg med sårbarheter och buggfixar", säger Leonard.

Max Tegmark, professor vid Massachusetts Institute of Technology och ordförande för Future of Life Institute, betonade att ordern måste vara utrustad med en plan för att skapa och genomdriva lagstiftning och sa: "Beslutsfattare, inklusive de i kongressen, måste ta hand om sina medborgare genom att anta lagar med tänder som hanterar hot och skyddar framsteg."

Jaysen Gillespie, Head of Analytics and Data Science på RTB House, såg positivt på den verkställande ordern och konstaterade att AI-reglering är ett ämne där det verkligen är möjligt med en tvåpartistrategi. 

Alejandro Mayorkas från Homeland Security sa: "Den oöverträffade hastigheten för AI: s utveckling och antagande innebär betydande risker som vi snabbt måste mildra, tillsammans med möjligheter att avancera och förbättra vårt arbete på uppdrag av det amerikanska folket ... Det instruerar DHS att hantera AI i kritisk infrastruktur och cyberspace, främja antagandet av AI-säkerhetsstandarder globalt, minska risken för AI: s användning för att skapa massförstörelsevapen, bekämpa AI-relaterad stöld av immateriella rättigheter och se till att vårt invandringssystem lockar talang att utveckla ansvarsfull AI i USA.

Casey Ellis, grundare och CTO för Bugcrowd, sa: "Direktivet ger utvecklare mandat att dela säkerhetstestresultat med den amerikanska regeringen, vilket säkerställer att AI-system är omfattande kontrollerade innan de släpps offentligt. Det lyfter också fram vikten av AI för att stärka cybersäkerheten, särskilt för att upptäcka AI-aktiverat bedrägeri och förbättra programvaru- och nätverkssäkerhet. Ordern främjar också utvecklingen av standarder, verktyg och tester för AI:s säkerhet och trygghet."

Ett nödvändigt steg, men utmaningar väntar

President Bidens exekutiva order om AI försöker vara heltäckande, men kongressen måste följa upp dess brådskande karaktär med lagstiftningsåtgärder. Det är långt ifrån garanterat. 

Även om det fastställer strikta standarder och betonar öppenhet, ansvarsskyldighet och förebyggande av diskriminerande metoder, kommer initiativets verkliga effektivitet att bero på dess genomförande och förmågan att balansera tillsyn med främjande av innovation. 

Med AI Safety Summit i antågande eskalerar samtalen kring riskerna med AI och hur de kan minskas.

En heltäckande kontroll av AI är fortfarande beroende av snabb och effektiv lagstiftning och förmågan att genomdriva den.

Bli en del av framtiden


PRENUMERERA IDAG

Tydlig, kortfattad och heltäckande. Få grepp om AI-utvecklingen med DagligaAI

Sam Jeans

Sam är en vetenskaps- och teknikskribent som har arbetat i olika AI-startups. När han inte skriver läser han medicinska tidskrifter eller gräver igenom lådor med vinylskivor.

×

GRATIS PDF EXKLUSIV
Ligg steget före med DailyAI

Registrera dig för vårt veckovisa nyhetsbrev och få exklusiv tillgång till DailyAI:s senaste e-bok: "Mastering AI Tools: Din 2024-guide till förbättrad produktivitet".

*Genom att prenumerera på vårt nyhetsbrev accepterar du vår Integritetspolicy och våra Villkor och anvisningar