30 oktober 2023 markeert een vooruitgang in AI-governance nu president Joe Biden een uitgebreid uitvoerend bevel heeft aangekondigd met robuuste regels en richtlijnen voor AI.
De order zal naar verwachting een nieuw tijdperk van transparantie en standaardisatie inluiden voor AI-bedrijven, waarbij de noodzaak van duidelijke labeling van content en watermerkpraktijken wordt benadrukt.
"Om de belofte van AI te realiseren en de risico's te vermijden, moeten we deze technologie besturen, daar kunnen we niet omheen", sprak Biden tijdens het ondertekeningsevenement in het Witte Huis.
Tijdens het evenement sprak Biden ook over AI deep fakes, waarbij hij tot humor van het publiek aankondigde: "Ik heb er een van mij gezien...Ik zei, heb ik dat verdomme gezegd?"
De bestel richt zich op meer transparantie van AI-ontwikkelaars en stelt een reeks nieuwe standaarden op, met name voor het labelen van AI-gegenereerde inhoud.
Het Witte Huis wil met het bevel de "veiligheid en beveiliging van AI" verbeteren. Het bevat een verrassende eis voor ontwikkelaars om veiligheidstestresultaten voor nieuwe AI-modellen te delen met de Amerikaanse overheid als de technologie mogelijk een bedreiging kan vormen voor de nationale veiligheid.
Het gaat hier om de Defense Production Act, die gewoonlijk is voorbehouden aan nationale noodsituaties.
Voor degenen die niet bekend zijn met het maken van wetten in de VS: executive orders zijn geen wetgeving - ze creëren geen nieuwe wetten en veranderen bestaande wetten niet. In plaats daarvan instrueren ze het Congres over beleidsprioriteiten.
De volgorde, hier gepubliceerdbevat wel talrijke deadlines die verschillende acties specificeren die moeten worden ondernomen om AI-wetgeving in te voeren.
Uitvoeringsbevelen moeten gebaseerd zijn op grondwettelijke of statutaire autoriteit en kunnen niet worden gebruikt om het Congres te omzeilen of unilateraal wetten te creëren.
Als gevolg hiervan hebben velen benadrukt dat het uitvoeringsbevel handhavingsmechanismen ontbeert. Het heeft niet het gewicht van de wetgeving van het Congres over AI.
"Het Congres is dusdanig gepolariseerd en zelfs disfunctioneel dat het zeer onwaarschijnlijk is dat het in de nabije toekomst enige zinvolle AI-wetgeving zal produceren", zegt Anu Bradford, professor in de rechten aan Columbia University.
Het bevel komt dagen voordat het Verenigd Koninkrijk de mijlpaal AI-veiligheidstopwaarbij politici, onderzoekers, technici en leden van het maatschappelijk middenveld samenkomen in Bletchley Park. Vicepresident Kamala Harris is aanwezig. Ook China zal op de top vertegenwoordigd zijn.
"Het is onze bedoeling dat de acties die we in eigen land ondernemen als voorbeeld dienen voor internationale actie", zei Harris tijdens het evenement in het Witte Huis.
Deze verklaring vestigt de aandacht op de kritiek dat het bevel de open internationale samenwerking in de aanloop naar de AI Safety Summit zou kunnen ondermijnen.
De VS was een langzame starter op het gebied van AI-regulering en de aard van uitvoerende orders betekent dat dit zo blijft. Het is misschien brutaal om te suggereren dat andere landen dit pad moeten volgen.
Harris vervolgde dat de VS "bestaande internationale regels en normen zouden toepassen met het doel om de wereldorde en stabiliteit te bevorderen, en waar nodig steun te verwerven voor aanvullende regels en normen die aan dit moment voldoen".
Wat het Witte Huis te zeggen heeft
Het bevel introduceert strenge normen voor AI, waarborgt de privacy van Amerikanen, bevordert gelijkheid en burgerrechten, beschermt consumenten en werknemers, stimuleert innovatie en concurrentie en versterkt het Amerikaanse leiderschap op het gebied van AI.
Het is een aanvulling op vrijwillige verbintenissen van 15 toonaangevende bedrijven om de veilige en betrouwbare ontwikkeling van AI te bevorderen.
Een van de meest opmerkelijke elementen van het bevel is dat de president heeft verklaard dat ontwikkelaars van 'krachtige' AI-systemen veiligheidstestresultaten en kritieke informatie moeten delen met de Amerikaanse overheid, met als doel ervoor te zorgen dat deze systemen veilig en betrouwbaar zijn voordat ze openbaar worden gemaakt.
Het National Institute of Standards and Technology (NIST) zal 'red teaming' leiden om de veiligheid van AI-modellen te testen en te analyseren.
Red team is het proces van het testen en stresstesten van de functionaliteit en beveiliging van AI-modellen.
Wat privacy betreft, blijkt uit de oproep van de president voor wetgeving inzake gegevensprivacy van beide partijen dat hij begrijpt hoe urgent de situatie is.
Maar zoals gezegd zal de effectiviteit van deze maatregelen uiteindelijk afhangen van de snelle en beslissende actie van het Congres, dat van oudsher traag is met het maken van wetgeving over tech-gerelateerde kwesties.
Daarnaast neemt het uitvoeringsbevel een sterk standpunt in over het bevorderen van gelijkheid en het bestrijden van algoritmische discriminatie, met richtlijnen om te zorgen voor eerlijkheid in huisvesting, strafrecht en federale uitkeringsprogramma's.
Nogmaals, hoewel dit positieve stappen zijn, zal het succes van deze initiatieven afhangen van strenge handhaving en voortdurend toezicht.
De bestelling richt zich op acht belangrijke gebieden.
Dit is hoe de baanbrekende Executive Order van president Biden over AI ervoor zal zorgen dat Amerika voorop loopt in deze periode van technologische verandering en tegelijkertijd Amerikanen veilig houdt. pic.twitter.com/SvBPxiZk3M
- Het Witte Huis (@WhiteHouse) 30 oktober 2023
1. Nieuwe normen voor AI-veiligheid en -beveiliging
- Ontwikkelaars van krachtige AI-systemen moeten veiligheidstestresultaten en cruciale informatie delen met de Amerikaanse overheid.
- De ontwikkeling van standaarden, tools en tests om de veiligheid en betrouwbaarheid van AI-systemen te garanderen, onder leiding van het NIST.
- Bescherming tegen het potentieel van AI in de engineering van gevaarlijke biologische materialen door robuuste normen op te stellen voor het screenen van biologische syntheses.
- protocollen opstellen om Amerikanen te beschermen tegen AI-fraude en misleiding, waaronder normen voor het detecteren van AI-gegenereerde inhoud en het verifiëren van officiële communicatie.
- Lanceren van een geavanceerd cyberbeveiligingsprogramma om AI in te zetten bij het beveiligen van software en netwerken.
2. De privacy van Amerikanen beschermen
- Pleiten voor federale steun voor de ontwikkeling en het gebruik van privacybehoudende technieken in AI.
- Versterking van onderzoek naar technologieën die de privacy beschermen.
- Verbetering van de richtlijnen van federale agentschappen om de privacy te waarborgen bij het verzamelen en gebruiken van gegevens, met name persoonlijk identificeerbare informatie.
3. Bevordering van gelijkheid en burgerrechten
- Richtlijnen bieden om het potentieel van AI om discriminatie in huisvesting, justitie en werkgelegenheid te verergeren, te beperken.
- Bevordering van eerlijkheid in het hele strafrechtsysteem door de ontwikkeling van beste praktijken bij de toepassing van AI.
4. Opkomen voor consumenten, patiënten en studenten
- Verantwoord AI-gebruik in de gezondheidszorg aanmoedigen voor de ontwikkeling van betaalbare, levensreddende medicijnen en het waarborgen van de veiligheid in de gezondheidszorg waar AI een rol speelt.
- De transformerende rol van AI in het onderwijs vergemakkelijken door onderwijzers te ondersteunen bij het inzetten van AI-ondersteunde leermiddelen.
5. Werknemers ondersteunen
- Principes en best practices ontwikkelen om de voor- en nadelen van AI op de werkplek in balans te brengen.
- Uitgebreide studies uitvoeren naar de invloed van AI op de arbeidsmarkt en de federale steun versterken voor werknemers die te maken krijgen met arbeidsverstoringen als gevolg van AI.
6. Innovatie en concurrentie bevorderen
- AI-onderzoek landelijk katalyseren en zorgen voor een concurrerend AI-ecosysteem.
- Het stroomlijnen van immigratieprocessen voor hoogopgeleide personen in kritieke AI-sectoren.
7. Amerikaans leiderschap in het buitenland bevorderen
- Versterking van internationale samenwerkingsverbanden en kaders op het gebied van AI.
- Wereldwijd veilige en verantwoorde AI-ontwikkeling en -implementatie bevorderen.
8. Een verantwoord en effectief gebruik van AI door de overheid waarborgen
- Duidelijke richtlijnen geven aan federale agentschappen voor het gebruik, de aanschaf en de inzet van AI.
- Het verbeteren van AI-talentacquisitie binnen de overheid en het aanbieden van AI-training aan federale werknemers.
De regering Biden-Harris probeert een balans te vinden tussen het behouden en versterken van de toonaangevende AI-industrie in de VS en het tegengaan van duidelijke risico's.
Diepe vervalsingen en verkeerde informatie staan bij de meeste mensen bovenaan, aangezien we nu tastbaar bewijs hebben dat ze de verkiezingsstemmen kunnen beïnvloeden.
Met de algemene verkiezingen in de VS volgend jaar is het misschien geen verrassing dat het bevel de druk opvoert om AI-gegenereerde inhoud te watermerken en te markeren, zodat gebruikers gemakkelijk echt van nep kunnen onderscheiden.
Technisch gesproken zijn er echter geen robuuste oplossingen om dit te bereiken in de praktijk.
Reacties uit de industrie
De reacties van de industrie zijn - uiteraard - gemengd. Velen prijzen de snelle vooruitgang in de richting van ondertekening van het bevel, terwijl anderen benadrukken dat wetgeving en informatie over handhavingsacties ontbreken.
Opnieuw geeft de order aan dat het Witte Huis wil dat het Congres actie onderneemt op het gebied van AI-beleid.
De enige uitzondering hierop is de Defense Production Act, die is ingeroepen om AI-bedrijven te dwingen de overheid op de hoogte te stellen als ze modellen ontwikkelen die te maken hebben met de nationale veiligheid.
De officiële formulering is een AI-model dat een "ernstig risico vormt voor de nationale veiligheid, de nationale economische veiligheid of de nationale volksgezondheid en veiligheid".
Het AI-uitvoeringsbevel is een beetje belachelijk en vrij moeilijk te handhaven.
Dit zijn de problemen
1. Hoe bepaal je of iets een "ernstig risico voor de nationale veiligheid!" is?
Als dit gaat over...
- Bindu Reddy (@bindureddy) 30 oktober 2023
Sommigen benadrukten dat er, in vergelijking met de EU AI Act, geen richtlijnen zijn voor de transparantie van trainingsgegevens, waarover meerdere AI-ontwikkelaars rechtszaken hebben aangespannen.
Afwezig in de nieuwe uitvoeringsvolgorde:
AI-bedrijven moeten hun trainingsset bekendmaken.
Om veilige AI te ontwikkelen, moeten we weten waarop het model getraind is.
Waarom pleiten de AI-veiligheidsorganisaties hier niet voor?https://t.co/yjr21bNIK4
- Damek Davis (@damekdavis) 30 oktober 2023
Adnan Masood, Chief AI Architect bij UST, juichte het initiatief toe en zei: "De order onderstreept een broodnodige verschuiving in de wereldwijde aandacht voor het reguleren van AI, vooral na de generatieve AI-boom die we dit jaar allemaal hebben gezien."
Avivah Litan, een vicepresident bij Gartner Research, merkte op dat hoewel de regels sterk beginnen, er nog steeds gebieden zijn waar de mandaten tekortschieten. Ze zette vraagtekens bij de definitie van 'krachtigste' AI-systemen, de toepassing op open source AI-modellen en het afdwingen van standaarden voor authenticatie van content op sociale mediaplatforms.
Bradley Slagtand, CEO bij Tusk Ventures, zegt dat AI-ontwikkelaars waarschijnlijk geen gepatenteerde gegevens zullen delen met de overheid: "Zonder een echt handhavingsmechanisme, dat de uitvoerende order niet lijkt te hebben, is het concept geweldig, maar de naleving kan zeer beperkt zijn."
Randy Lariar, AI-beveiligingsleider bij Optiv, zei: "Ik maak me zorgen dat veel open-source modellen, die zijn afgeleid van de grote basismodellen, net zo riskant kunnen zijn zonder de last van red teaming - maar dit is een begin."
Ashley Leonard, chief executive officer van Syxsense, voegde eraan toe dat het erg interessant zal zijn om te zien hoe de order wordt geïmplementeerd. "Het vergt echte middelen - budget, tijd en personeel - voor zelfs de meest geavanceerde bedrijven om kwetsbaarheden en bugfixes bij te houden," zei Leonard.
Max Tegmark, een professor aan het Massachusetts Institute of Technology en de voorzitter van het Future of Life Institute, benadrukte dat het bevel uitgerust moet zijn met een plan voor het creëren en handhaven van wetgeving, waarbij hij stelde: "Beleidsmakers, inclusief die in het Congres, moeten voor hun burgers zorgen door wetten met tanden aan te nemen die bedreigingen aanpakken en vooruitgang waarborgen."
Jaysen Gillespie, hoofd Analytics en Data Science bij RTB House, was positief over het uitvoeringsbesluit en stelde dat AI-regelgeving een onderwerp is waarbij een tweepartijenaanpak echt mogelijk is.
Alejandro Mayorkas van Binnenlandse Veiligheid: "De ongekende snelheid van de ontwikkeling en toepassing van AI brengt aanzienlijke risico's met zich mee die we snel moeten beperken, maar biedt ook kansen om ons werk namens het Amerikaanse volk vooruit te helpen en te verbeteren... Het DHS krijgt de opdracht om AI in kritieke infrastructuur en cyberspace te beheren, de toepassing van AI-veiligheidsnormen wereldwijd te bevorderen, het risico te verkleinen dat AI wordt gebruikt om massavernietigingswapens te maken, AI-gerelateerde diefstal van intellectueel eigendom te bestrijden en ervoor te zorgen dat ons immigratiesysteem talent aantrekt om verantwoorde AI in de Verenigde Staten te ontwikkelen."
Casey Ellis, oprichter en CTO van Bugcrowd, zegt: "De richtlijn verplicht ontwikkelaars om veiligheidstestresultaten te delen met de Amerikaanse overheid, zodat AI-systemen uitgebreid worden doorgelicht voordat ze worden vrijgegeven. Het benadrukt ook het belang van AI bij het versterken van cyberveiligheid, met name bij het detecteren van AI-fraude en het verbeteren van software- en netwerkbeveiliging. De order pleit ook voor de ontwikkeling van standaarden, tools en tests voor de veiligheid en beveiliging van AI."
Een noodzakelijke stap, maar uitdagingen in het verschiet
Het uitvoerend bevel van president Biden over AI probeert veelomvattend te zijn, maar het Congres moet de urgentie ervan opvolgen met wetgevende actie. Dat is verre van gegarandeerd.
Hoewel het strenge normen vastlegt en de nadruk legt op transparantie, verantwoordingsplicht en het voorkomen van discriminerende praktijken, zal de echte doeltreffendheid van dit initiatief afhangen van de implementatie ervan en van het vermogen om een evenwicht te vinden tussen regelgevend toezicht en het stimuleren van innovatie.
Met de AI Safety Summit in aantocht escaleren de gesprekken over de risico's van AI en hoe deze te beperken.
Een alomvattende controle van AI is nog steeds afhankelijk van de snelheid en efficiëntie van de wetgeving en het vermogen om deze te handhaven.