De EU heeft een akkoord bereikt over de AI Act, waardoor deze waarschijnlijk zoals gepland in 2024 tot 2025 in werking zal treden.
Dit baanbrekende besluit is het resultaat van een intense onderhandelingssessie van 37 uur waarbij het Europees Parlement en de EU-lidstaten betrokken waren.
Thierry Breton, de Europese Commissaris die primair verantwoordelijk is voor deze nieuwe reeks wetten, omschreef de overeenkomst als "historisch". De besprekingen zijn sinds dinsdag aan de gang, waaronder enkele dagen waarop de onderhandelaars de hele nacht doorwerkten.
Historisch!
De EU wordt het allereerste continent dat duidelijke regels opstelt voor het gebruik van AI 🇪🇺
De #AIAct is veel meer dan een handleiding - het is een springplank voor startende bedrijven en onderzoekers uit de EU om de wereldwijde AI-race te leiden.
Het beste moet nog komen! 👍 pic.twitter.com/W9rths31MU
- Thierry Breton (@ThierryBreton) 8 december 2023
Carme Artigas, de Spaanse staatssecretaris voor AI, was van cruciaal belang om deze onderhandelingen tot een goed einde te brengen.
Artigas wees op de significante steun die de tekst kreeg van grote Europese landen, waarbij hij specifiek aangaf: "Frankrijk en Duitsland steunden de tekst." Dit is opmerkelijk, omdat Frankrijk en Duitsland, die hun eigen groeiende AI-industrie willen stimuleren, vraagtekens zetten bij enkele van de strengere elementen van de wet.
De EU is nu klaar om het voortouw te nemen op het gebied van AI-regelgeving. Hoewel de specifieke inhoud en implicaties van de nieuwe wetten nog in ontwikkeling zijn, zullen ze waarschijnlijk in 2024/2025 van kracht worden.
Belangrijkste overeenkomsten en aspecten van de EU AI Act
De voorlopig akkoord over de AI-wet is een historische stap in de regulering van AI. Het volgt in de voetsporen van andere EU-technologieregelgeving, zoals GDPR, die techbedrijven in de loop der jaren aan miljardenboetes heeft onderworpen.
Carme Artigas, Spaans staatssecretaris voor digitalisering en kunstmatige intelligentie, zei over de wet: "Dit is een historische prestatie en een enorme mijlpaal op weg naar de toekomst! De overeenkomst van vandaag pakt effectief een wereldwijde uitdaging aan in een snel veranderende technologische omgeving op een gebied dat van cruciaal belang is voor de toekomst van onze samenlevingen en economieën. En bij deze inspanning zijn we erin geslaagd een uiterst delicaat evenwicht te bewaren: het stimuleren van innovatie en invoering van kunstmatige intelligentie in heel Europa en tegelijkertijd de fundamentele rechten van onze burgers volledig respecteren."
Dit zijn de nieuwe kernaspecten van de overeengekomen wetgeving:
- AI-systemen met hoge impact en hoog risico: De overeenkomst introduceert regels voor AI-modellen voor algemene doeleinden die 'systeemrisico's' kunnen opleveren. Wat dit precies inhoudt blijft onduidelijk, maar het is in grote lijnen bedoeld voor nieuwe generaties modellen op GPT-4-niveau en hoger.
- Bestuur en handhaving: Er is een herzien governancesysteem opgezet, met een aantal handhavingsbevoegdheden op EU-niveau. Dit zorgt voor een gecentraliseerde aanpak van de regulering van AI in alle lidstaten.
- Verbodsbepalingen en uitzonderingen voor wetshandhaving: De overeenkomst breidt de lijst van verboden AI-praktijken uit, maar staat het gebruik van biometrische identificatie op afstand door rechtshandhaving in openbare ruimten onder strikte voorwaarden toe. Dit is bedoeld om een balans te vinden tussen openbare veiligheid en privacy en burgerlijke vrijheden.
- Bescherming van rechten: Een belangrijk aspect van de overeenkomst is de verplichting voor toepassers van AI-systemen met een hoog risico om de gevolgen voor de rechten van mensen te beoordelen voordat ze een AI-systeem gebruiken. "Deployers" is hier het sleutelwoord, want de wet verplicht verantwoordelijkheden in de hele AI-waardeketen.
Andere overeengekomen gebieden zijn onder andere:
- Definities en toepassingsgebied: De definitie van AI-systemen is afgestemd op de Definitie van de OESOen de verordening sluit AI-systemen uit die uitsluitend worden gebruikt voor militaire, defensie-, onderzoeks- en innovatiedoeleinden of door individuen om niet-professionele redenen.
- Classificatie van AI-systemen: AI-systemen zullen worden geclassificeerd op basis van risico, waarbij voor systemen met een hoog risico strenge eisen gelden en voor systemen met een beperkt risico lichtere transparantieverplichtingen. Dit is altijd al de bedoeling geweest.
- Funderingsmodellen: De overeenkomst heeft betrekking op foundation modellen, grote AI-systemen die verschillende taken kunnen uitvoeren zoals ChatGPT/Bard/Claude 2. Er zijn specifieke transparantieverplichtingen vastgelegd voor deze modellen, met strengere regels voor foundationmodellen met een grote impact.
- Eisen voor AI-systemen met hoog risico: AI-systemen met een hoog risico worden toegestaan op de EU-markt, maar moeten voldoen aan specifieke eisen, waaronder gegevenskwaliteit en technische documentatie, met name voor KMO's.
- Verantwoordelijkheden in AI-waardeketens: De overeenkomst verduidelijkt de rollen en verantwoordelijkheden van verschillende actoren in de waardeketens van AI-systemen, waaronder aanbieders en gebruikers, en hoe deze zich verhouden tot bestaande EU-wetgeving.
- Verboden AI-praktijken: De wet verbiedt bepaalde onacceptabele AI-praktijken, zoals cognitieve gedragsmanipulatie, ongericht schrapen van gezichtsopnamen en emotieherkenning op het werk en in onderwijsinstellingen.
- Noodprocedures voor wetshandhaving: Met een noodprocedure kunnen wetshandhavingsinstanties in noodsituaties AI-hulpmiddelen met een hoog risico inzetten die niet door de conformiteitsbeoordeling zijn gekomen.
- Real-time biometrische identificatie: Het gebruik van realtime biometrische identificatiesystemen op afstand door wetshandhavers in openbare ruimten is onder strikte voorwaarden toegestaan voor specifieke doeleinden, zoals het voorkomen van terroristische aanslagen of het opsporen van verdachten van zware criminaliteit.
Bestuur, sancties en handhaving:
- Bestuur: Een AI-bureau binnen de Commissie zal toezicht houden op geavanceerde AI-modellen, ondersteund door een wetenschappelijk panel van onafhankelijke deskundigen en de AI-raad bestaande uit vertegenwoordigers van de lidstaten.
- Sancties: De overeenkomst stelt boetes vast op basis van een percentage van de wereldwijde jaaromzet van het bedrijf voor verschillende overtredingen, met proportionelere plafonds voor KMO's en start-ups.
- Boetes: Boetes voor niet-naleving zijn vastgesteld op basis van de ernst van de overtreding. De boetes worden berekend als een percentage van de totale jaaromzet van het bedrijf van het vorige boekjaar of als een vast bedrag. Het hoogste van de twee wordt genomen. De boetes zijn als volgt opgebouwd: 35 miljoen euro of 7% van de omzet voor overtredingen met verboden AI-toepassingen, 15 miljoen euro of 3% voor overtredingen van de verplichtingen van de wet en 7,5 miljoen euro of 1,5% voor het verstrekken van onjuiste informatie.
- Ondersteuning: De overeenkomst omvat AI-regelgevingszandbakken om innovatieve AI-systemen onder reële omstandigheden te testen en biedt ondersteuning aan kleinere bedrijven.
Deze voorlopige overeenkomst moet nog worden goedgekeurd door het Europees Parlement en de 27 lidstaten van de EU.
Welke invloed zal de wetgeving hebben op "grensmodellen?
Onder de nieuwe regelgeving moeten alle ontwikkelaars van AI-systemen voor algemeen gebruik, met name die met een breed scala aan potentiële toepassingen zoals ChatGPT en Bard, actuele informatie bijhouden over hoe hun modellen worden getraind, een gedetailleerd overzicht geven van de gegevens die bij de training zijn gebruikt en een beleid hebben dat de auteursrechtwetgeving respecteert en acceptabel gebruik garandeert.
De Wet classificeert bepaalde modellen ook als "systeemrisico". Deze beoordeling is voornamelijk gebaseerd op de rekenkracht die deze modellen trainen. De EU heeft voor deze categorie een drempel ingesteld op modellen die meer dan 10 biljoen biljoen bewerkingen per seconde uitvoeren.
Momenteel is OpenAI's GPT-4 het enige model dat automatisch aan deze drempel voldoet. De EU zou echter andere modellen onder deze definitie kunnen laten vallen.
Modellen die als systeemrisico worden beschouwd, zullen worden onderworpen aan aanvullende, strengere regels. Deze omvatten:
- Verplichte rapportage van energieverbruik.
- Red-teaming of contradictoire tests uitvoeren.
- Potentiële systeemrisico's beoordelen en beperken.
- Zorgen voor robuuste cyberbeveiligingscontroles.
- Het rapporteren van zowel de informatie die is gebruikt voor het verfijnen van het model als details over hun systeemarchitectuur.
Hoe is de overeenkomst ontvangen?
De AI-wet heeft veel reacties losgemaakt over innovatie, regulering en maatschappelijke gevolgen.
Fritz-Ulli Pieper, een specialist in IT-recht bij Taylor Wessing, wees erop dat, hoewel het einde in zicht is, de wet nog steeds aan verandering onderhevig is.
Hij merkte op: "Er zijn nog veel punten die verder uitgewerkt moeten worden in de technische trialoog. Niemand weet hoe de uiteindelijke formulering eruit zal zien en of en hoe je de huidige overeenstemming echt kunt doordrukken in een definitieve wetstekst."
Pieper's inzichten onthullen de complexiteit en onzekerheid rond de AI-wet en suggereren dat er nog veel werk moet worden verricht om ervoor te zorgen dat de uiteindelijke wetgeving effectief en praktisch is.
Een belangrijk thema van deze bijeenkomsten was het vinden van een balans tussen AI-risico's en -kansen, vooral omdat modellen 'tweeledig van aard' kunnen zijn, wat betekent dat ze zowel voordelen kunnen bieden als schade kunnen toebrengen. Alexandra van Huffelen, Nederlands minister van Digitalisering, merkte op: "Omgaan met AI betekent de kansen en risico's eerlijk verdelen."
De wet leek er ook niet in te slagen EU-burgers te beschermen tegen grootschalige bewaking, wat de aandacht trok van belangengroepen zoals Amnesty International.
Mher Hakobyan, Adviseur Kunstmatige Intelligentie, zei over dit controversiële punt: "Het niet garanderen van een volledig verbod op gezichtsherkenning is daarom een enorm gemiste kans om kolossale schade aan de mensenrechten, de burgerlijke ruimte en de rechtsstaat, die in de hele EU al worden bedreigd, te stoppen en te voorkomen."
Na deze voorlopige overeenkomst wordt de AI Act twee jaar na de officiële inwerkingtreding van kracht, zodat overheden en bedrijven in de hele EU zich kunnen voorbereiden op de naleving van de bepalingen.
In de tussentijd zullen ambtenaren onderhandelen over de technische details van de verordening. Zodra de technische verfijningen zijn afgerond, zal de compromistekst ter goedkeuring worden voorgelegd aan de vertegenwoordigers van de lidstaten.
De laatste stap is een juridisch-taalkundige revisie om duidelijkheid en juridische nauwkeurigheid te garanderen, gevolgd door de formele goedkeuring. De AI-wet zal de sector zeker veranderen, zowel in de EU als wereldwijd, maar de omvang daarvan is moeilijk te voorspellen.