Diskussioner mellem USA og EU presser på for en midlertidig AI-"stopklods", før reglerne bliver bindende

1. juni 2023

EU-USA AI

Den eksponentielle vækst i AI-systemer overhaler forskning og regulering og efterlader regeringerne i en vanskelig position, hvor de skal afveje fordele og risici. 

Det tager år at udvikle love og gøre dem juridisk bindende. AI udvikler sig på ugentlig basis. 

Det er den dikotomi, som AI-ledere og -politikere står over for, og den første meningsfulde AI-regulering i Vesten, EU's AI Act, kommer i 2026. Selv for et år siden var ChatGPT kun en hvisken.

Topembedsmænd fra USA og EU mødtes til US-EU Trade and Tech Council (TTC) den 31. maj i Luleå, Sverige. Margrethe Vestager, Europas digitale kommissær, som mødtes med Googles CEO Sundar Pichai ugen før for at diskutere en potentiel 'AI-pagt', sagde: "Demokratiet er nødt til at vise, at vi er lige så hurtige som teknologien."

Embedsmænd anerkender den gabende kløft mellem teknologiens tempo og lovgivningens tempo. Med henvisning til generativ AI som ChatGPT sagde Gina Raimondo, USA's handelsminister: "Det kommer i et tempo som ingen anden teknologi." 

Så hvad opnåede TTC-mødet?

Deltagerne diskuterede først og fremmest ikke-bindende eller frivillige rammer omkring risiko og gennemsigtighed, som vil blive præsenteret for G7 til efteråret. 

EU, som har en direkte tilgang til digital lovgivning, vælger en differentieret tilgang til AI-regulering, hvor AI'er sorteres i kategorier baseret på risiko. 

Det omfatter et forbudt "uacceptabel risiko"-niveau og et "højrisiko"-niveau, som teknologibosser som OpenAI's CEO Sam Altman frygter vil kompromittere deres produkters funktionalitet. 

AI-risiko
Risikoniveauer i EU's AI Act: Kilde: EU.

USA foreslår ikke så definitive regler, at foretrække frivillige regler.

Der er brug for mange flere møder mellem EU, USA og big tech for at afstemme synspunkter med meningsfuld praktisk handling. 

Vil frivillige AI-regler fungere?

Der er mange eksempler på frivillige regler i andre sektorer og brancher, såsom frivillige rammer for datasikkerhed og ESG-oplysninger, men ingen er så tæt på forkant som en frivillig ramme for AI-styring. 

Vi har trods alt at gøre med en trussel på udryddelsesniveau her, ifølge topteknologiledere og akademikere, der er medunderskrivere af rapporten Center for AI Safety's udtalelse om AI-risiko i denne uge.

Store virksomheder som OpenAI og Google har allerede centrale afdelinger med fokus på governance og intern compliance, så det at tilpasse deres produkter og tjenester til frivillige rammer kan være et spørgsmål om at omskrive interne policydokumenter. 

Frivillige regler er bedre end ingenting, men med mange forslag på bordet bliver politikere og AI-ledere nødt til at vælge noget at køre videre med før eller siden.

Deltag i fremtiden


TILMELD DIG I DAG

Klar, kortfattet, omfattende. Få styr på AI-udviklingen med DailyAI

Sam Jeans

Sam er videnskabs- og teknologiforfatter og har arbejdet i forskellige AI-startups. Når han ikke skriver, kan han finde på at læse medicinske tidsskrifter eller grave i kasser med vinylplader.

×

GRATIS PDF EKSKLUSIVT
Vær på forkant med DailyAI

Tilmeld dig vores ugentlige nyhedsbrev og få eksklusiv adgang til DailyAI's seneste e-bog: 'Mastering AI Tools: Din 2024-guide til forbedret produktivitet'.

*Ved at tilmelde dig vores nyhedsbrev accepterer du vores Politik for beskyttelse af personlige oplysninger og vores Vilkår og betingelser