VS-EU-besprekingen dringen aan op tijdelijke AI-'stop gap' voordat regelgeving bindend wordt

1 juni 2023

AI EU-VS

De exponentiële groei van AI-systemen overtreft onderzoek en regelgeving, waardoor overheden zich in een lastige positie bevinden om de voordelen en risico's tegen elkaar af te wegen. 

Het duurt jaren om wetten te ontwikkelen en juridisch bindend te maken. AI ontwikkelt zich wekelijks. 

Dat is de dichotomie waar AI-leiders en politici mee te maken hebben, met de eerste zinvolle AI-regelgeving in het Westen, de EU AI Act, die in 2026 wordt verwacht. Zelfs een jaar geleden werd er nog gefluisterd over ChatGPT.

Topambtenaren van de VS en de EU ontmoetten elkaar op 31 mei in Luleå, Zweden, voor de Trade and Tech Council (TTC) tussen de VS en de EU. Margrethe Vestager, Europees commissaris voor digitale zaken, die de week ervoor een ontmoeting had met Google CEO Sundar Pichai om een mogelijk 'AI-pact' te bespreken, zei: "De democratie moet laten zien dat we net zo snel zijn als de technologie."

Ambtenaren erkennen de gapende kloof tussen het tempo van de technologie en het tempo van de wetgeving. Verwijzend naar generatieve AI zoals ChatGPT zei Gina Raimondo, de Amerikaanse minister van Handel: "Het komt met een snelheid zoals geen andere technologie." 

Wat heeft de TTC-vergadering opgeleverd?

De aanwezigen bespraken vooral niet-bindende of vrijwillige kaders rond risico en transparantie, die in het najaar aan de G7 zullen worden voorgelegd. 

De EU, die een directe benadering heeft van digitale wetgeving, kiest voor een trapsgewijze benadering van AI-regelgeving, waarbij AI's worden ingedeeld in categorieën op basis van risico. 

Dit omvat een verboden niveau van "onaanvaardbaar risico" en een niveau van "hoog risico", waarvan techbazen zoals OpenAI CEO Sam Altman vrezen dat het de functionaliteit van hun producten in gevaar zal brengen. 

AI-risico
EU AI Act risiconiveaus: Bron: EU.

De VS stellen zulke definitieve regels niet voor, voorkeur voor vrijwillige regels.

Er zullen nog veel meer ontmoetingen nodig zijn tussen de EU, de VS en de grote technologiebedrijven om standpunten op één lijn te brengen met zinvolle praktische actie. 

Zullen vrijwillige AI-regels werken?

Er zijn veel voorbeelden van vrijwillige regels in andere sectoren en bedrijfstakken, zoals vrijwillige kaders voor gegevensbeveiliging en ESG-bekendmakingen, maar geen daarvan is zo geavanceerd als een vrijwillig kader voor AI-governance. 

Per slot van rekening hebben we hier te maken met een bedreiging op het niveau van uitsterven, volgens toptechnische leiders en academici die de Verklaring van het Center for AI Safety over AI-risico's deze week.

Grote bedrijven als OpenAI en Google hebben al centrale afdelingen die zich bezighouden met governance en interne compliance, dus het afstemmen van hun producten en diensten op vrijwillige kaders zou een kwestie kunnen zijn van het herschrijven van interne beleidsdocumenten. 

Vrijwillige regels zijn beter dan niets, maar met de vele voorstellen die op tafel liggen, zullen politici en AI-leiders vroeg of laat iets moeten kiezen om mee verder te gaan.

Doe mee met de toekomst


SCHRIJF JE VANDAAG NOG IN

Duidelijk, beknopt, uitgebreid. Krijg grip op AI-ontwikkelingen met DailyAI

Sam Jeans

Sam is een wetenschap- en technologieschrijver die bij verschillende AI-startups heeft gewerkt. Als hij niet aan het schrijven is, leest hij medische tijdschriften of graaft hij door dozen met vinylplaten.

×

GRATIS PDF EXCLUSIEF
Blijf voorop met DailyAI

Meld je aan voor onze wekelijkse nieuwsbrief en ontvang exclusieve toegang tot DailyAI's nieuwste eBook: 'Mastering AI Tools: Your 2024 Guide to Enhanced Productivity'.

* Door u aan te melden voor onze nieuwsbrief accepteert u onze Privacybeleid en onze Algemene voorwaarden