Det Hvide Hus annoncerer nye AI-regler for føderale agenturer

29. marts 2024

  • Det Hvide Hus' Office of Management and Budget (OMB) har udstedt politikker, der skal vejlede den føderale brug af AI.
  • Føderale agenturer bliver nødt til at implementere AI-sikkerhedsforanstaltninger og offentliggøre deres AI-værktøjer og use cases
  • Biden-administrationen vil ansætte 100 AI-professionelle til at fremme troværdig og sikker brug af AI.

USA's vicepræsident Kamala Harris annoncerede en række nye politikker, der regulerer, hvordan føderale agenturer bruger AI i deres arbejde.

De seneste politikker følger præsident Bidens bekendtgørelse af sin bekendtgørelse om AI i oktober sidste år. Den amerikanske regering gør en indsats for at dæmpe frygten for, hvordan offentlige myndigheder vil bruge AI-teknologier, som mange ser på med mistro.

Politikkerne, der er udarbejdet af Office of Management and Budget (OMB), kræver, at føderale agenturer:

  • Håndter risici ved brug af AI
  • Udvid gennemsigtigheden i brugen af AI
  • Fremme ansvarlig AI-innovation
  • Få AI-arbejdsstyrken til at vokse
  • Styrk styringen af AI

Adresse risici

Føderale myndigheder bliver nødt til at identificere og håndtere AI-risici for at sikre, at brugen af AI ikke påvirker borgernes rettigheder eller sikkerhed.

Inden den 1. december 2024 skal alle føderale agenturer implementere "konkrete sikkerhedsforanstaltninger", der imødegår potentielle risici som algoritmisk diskrimination og andre indvirkninger på samfundet.

At give folk i en lufthavn mulighed for at fravælge brugen af TSA-ansigtsgenkendelse, at sikre menneskeligt tilsyn i sundhedsvæsenet eller at opdage svindel i offentlige tjenester vil være obligatorisk, når AI bruges.

Agenturer, der ikke er i stand til at implementere disse sikkerhedsforanstaltninger, skal stoppe med at bruge det respektive AI-værktøj.

Udvid gennemsigtigheden

Politikken pålægger alle føderale agenturer at offentliggøre en oversigt over de AI-værktøjer, de anvender. De skal identificere brugssager, der påvirker rettigheder eller sikkerhed, og hvordan de håndteres.

Udkastet til vejledning om, hvordan agenturer skal rapportere om dette, udelukker tilfælde, hvor AI "bruges som en del af et nationalt sikkerhedssystem eller inden for efterretningsvæsenet".

Selv i disse undtagne tilfælde skal agenturer rapportere om målinger af de AI-systemer, de bruger, underrette offentligheden om disse undtagne AI-anvendelsestilfælde og begrunde, hvorfor de er undtaget.

Et interessant krav er, at føderale agenturer skal "frigive statsejede AI-koder, modeller og data, hvor sådanne frigivelser ikke udgør en risiko for offentligheden eller statslige operationer."

Fremme ansvarlig AI-innovation

De nye politikker understreger den amerikanske regerings forpligtelse til at anvende AI-teknologier i en lang række applikationer.

Meddelelsen sagde, at regeringen ville fjerne unødvendige barrierer for at gøre det lettere at anvende AI i applikationer som f.eks. håndtering af klimakrisen, reaktion på naturkatastrofer, offentlig sundhedspleje og offentlig transport.

OMB's politikker opfordrer "agenturer til ansvarligt at eksperimentere med generativ AI", samtidig med at de følger retningslinjerne for, hvordan man gør det på en sikker måde.

Få AI-arbejdsstyrken til at vokse

Inden sommeren 2024 har Biden-Harris-administrationen forpligtet sig til at ansætte 100 AI-professionelle som en del af sit program for at sikre en sikker og pålidelig implementering af AI i føderale agenturer.

Big Tech AI-virksomheder er involveret i en kamp om AI-talenter, og det ser ud til, at den amerikanske regering forstår, at det ikke bliver let at tiltrække og fastholde de rigtige mennesker til at udfylde de 100 pladser.

Den afholder en karrieremesse i næste måned og har udsendt en vejledning om løn- og orlovsfleksibilitet specifikt for AI-roller.

For at tiltrække medarbejdere til disse roller kan bureauerne tilbyde dem lønincitamenter, incitamenter til flytning, fleksible arbejdstider og ekstra ferie.

Styrk styringen af AI

Føderale agenturer bliver nødt til at udpege Chief AI Officers for at sikre ansvarlighed, lederskab og tilsyn med brugen af AI i deres operationer.

"Vi har bedt alle føderale agenturer om at udpege en AI-chef med erfaring, ekspertise og myndighed til at føre tilsyn med alle - jeg vil understrege det - alle AI-teknologier, der bruges af det pågældende agentur," sagde Harris under sin annoncering onsdag.

De skal også oprette et AI Governance Board, som skal koordinere og styre brugen af AI på tværs af agenturet.

OMB-direktør Shalanda Young sagde: "AI udgør ikke kun risici, men også en enorm mulighed for at forbedre offentlige tjenester og gøre fremskridt med samfundsmæssige udfordringer som at tackle klimaforandringer, forbedre folkesundheden og fremme retfærdige økonomiske muligheder."

De nye AI-politikker har til formål at hjælpe føderale agenturer med at frigøre dette potentiale, samtidig med at de beskytter rettighederne og sikkerheden for de mennesker, som agenturerne betjener.

Deltag i fremtiden


TILMELD DIG I DAG

Klar, kortfattet, omfattende. Få styr på AI-udviklingen med DailyAI

Eugene van der Watt

Eugene har en baggrund som elektronikingeniør og elsker alt, hvad der har med teknologi at gøre. Når han tager en pause fra at læse AI-nyheder, kan du finde ham ved snookerbordet.

×

GRATIS PDF EKSKLUSIVT
Vær på forkant med DailyAI

Tilmeld dig vores ugentlige nyhedsbrev og få eksklusiv adgang til DailyAI's seneste e-bog: 'Mastering AI Tools: Din 2024-guide til forbedret produktivitet'.

*Ved at tilmelde dig vores nyhedsbrev accepterer du vores Politik for beskyttelse af personlige oplysninger og vores Vilkår og betingelser