USA og EU diskuterer en midlertidig "stoppkloss" for kunstig intelligens før regelverket blir bindende

1. juni 2023

EU-USA AI

Den eksponentielle veksten av AI-systemer går raskere enn forskningen og reguleringen, noe som setter myndighetene i en vanskelig posisjon når de skal balansere fordeler og risiko. 

Det tar mange år å utvikle lover og gjøre dem juridisk bindende. Kunstig intelligens utvikler seg ukentlig. 

Det er den dikotomien AI-ledere og -politikere står overfor, med den første meningsfulle AI-reguleringen i Vesten, EUs AI Act, som kommer i 2026. Selv for ett år siden var ChatGPT bare noe man hvisket om.

Topptjenestemenn fra USA og EU møttes til US-EU Trade and Tech Council (TTC) 31. mai i Luleå i Sverige. Margrethe Vestager, Europas kommissær for digitalisering, som uken før møtte Google-sjef Sundar Pichai for å diskutere en mulig "AI-pakt", sa: "Demokratiet må vise at vi er like raske som teknologien."

Myndighetene erkjenner at det er et gap mellom teknologiens tempo og tempoet i lovgivningsprosessen. Gina Raimondo, USAs handelsminister, sa om generativ AI som ChatGPT: "Den kommer i et tempo som ingen annen teknologi." 

Så hva oppnådde TTC-møtet?

Deltakerne diskuterte først og fremst ikke-bindende eller frivillige rammeverk for risiko og åpenhet, som vil bli presentert for G7 til høsten. 

EU, som har en direkte tilnærming til digital lovgivning, har valgt en trinnvis tilnærming til AI-regulering, der AI sorteres i kategorier basert på risiko. 

Dette inkluderer et forbudt "uakseptabel risiko"-nivå og et "høy risiko"-nivå, som teknologisjefer som OpenAI-sjef Sam Altman frykter vil gå ut over produktenes funksjonalitet. 

AI-risiko
Risikonivåer i EUs AI Act: Kilde: EU.

USA foreslår ikke slike definitive reguleringer, favoriserer frivillige regler.

Det vil kreve mange flere møter mellom EU, USA og de store teknologibedriftene for å få synspunktene på linje med meningsfull praktisk handling. 

Vil frivillige AI-regler fungere?

Det finnes mange eksempler på frivillige regler i andre sektorer og bransjer, for eksempel frivillige rammeverk for datasikkerhet og ESG-rapportering, men ingen av dem ligger så tett opp til det nyeste som et frivillig rammeverk for styring av KI. 

Vi har tross alt å gjøre med en trussel på utryddelsesnivå, ifølge toppledere innen teknologi og akademikere som er medunderskrivere av Center for AI Safetys uttalelse om AI-risiko denne uken.

Store selskaper som OpenAI og Google har allerede sentrale avdelinger som fokuserer på styring og intern etterlevelse, så det å tilpasse produktene og tjenestene deres til frivillige rammeverk kan være et spørsmål om å omskrive interne policydokumenter. 

Frivillige regler er bedre enn ingenting, men med mange forslag på bordet må politikere og AI-ledere før eller siden velge noe å forholde seg til.

Bli med i fremtiden


ABONNER I DAG

Tydelig, kortfattet og omfattende. Få et grep om AI-utviklingen med DagligAI

Sam Jeans

Sam er en vitenskaps- og teknologiskribent som har jobbet i ulike oppstartsbedrifter innen kunstig intelligens. Når han ikke skriver, leser han medisinske tidsskrifter eller graver seg gjennom esker med vinylplater.

×

GRATIS PDF EKSKLUSIV
Hold deg i forkant med DailyAI

Meld deg på vårt ukentlige nyhetsbrev og få eksklusiv tilgang til DailyAIs nyeste e-bok: "Mastering AI Tools: Din 2024-guide til økt produktivitet".

*Ved å abonnere på vårt nyhetsbrev aksepterer du vår Retningslinjer for personvern og vår Vilkår og betingelser