De Britse AI Safety Summit, in combinatie met het uitvoeringsbevel van Biden, heeft AI-regelgeving in de schijnwerpers gezet, maar het grotere plaatje blijft vaag.
De top bracht een diverse groep belanghebbenden bij elkaar en toonde een collectieve toewijding om de toekomst van AI vorm te geven.
De ontvangst van het evenement in het politieke spectrum van de Britse media was over het algemeen positief, met publicaties die typisch tegen Sunak's fanatieke aanpak zijn, waaronder de Guardian, die het evenement als een algemeen succes bestempelden.
Hoewel het gevoel blijft hangen dat AI-gerelateerde beleidsgebeurtenissen tot nu toe niet veel meer zijn dan beloften, is het misschien te kort door de bocht om ze helemaal af te wijzen.
De Bletchley Verklaring was een van de belangrijkste resultaten van de top en werd onderschreven door 28 landen, waaronder de VS, het VK, China en de EU, waarmee de internationale consensus over AI-toezicht werd onderstreept.
Twee dagen voor de top was Biden's uitvoeringsbesluit schetste de strategie van de VS om AI-risico's te beheersen en toonde de nationale reactie van het land op wat zeker een wereldwijde uitdaging is.
De timing van de order illustreerde een poging om leiderschap te laten gelden en normen te stellen op het snel ontwikkelende gebied van AI.
Samen hebben deze gebeurtenissen zeker het "waarom?" van regelgeving vastgelegd - om risico's te beperken, voordelen te benadrukken en kwetsbare groepen te beschermen.
We zitten nog steeds met de vraag "hoe?" en het discours over de aard en uitvoering van regulering blijft omstreden.
Grootmachten wedijveren nu om het leiderschap op het gebied van regelgeving, dat premier Rishi Sunak van het Verenigd Koninkrijk wilde leiden toen hij de top aankondigde.
Dat werd enigszins overschaduwd door de executive order, waarin vicepresident Kamala Harris heel duidelijk zei: "Het is onze bedoeling dat de acties die we in eigen land ondernemen als voorbeeld dienen voor internationale actie."
Gina Raimondo, de Amerikaanse minister van Handel, vatte de tweeledige geest van concurrentie en samenwerking verder samen in haar verklaring op de top: "Zelfs als naties elkaar fel beconcurreren, kunnen en moeten we zoeken naar mondiale oplossingen voor mondiale problemen".
Over het ethos achter het recente decreet zei Ben Buchanan, de AI-adviseur van het Witte Huis: "Leiderschap voor de Verenigde Staten op het gebied van AI gaat niet alleen over het uitvinden van de technologie."
"Het gaat erom de bestuursmechanismen, de veiligheidsprotocollen, de standaarden en de internationale instellingen die de impact van deze technologie zullen vormgeven, uit te werken en mee te ontwikkelen."
Het lijkt erop dat AI-regulering voor de VS een geopolitiek concurrerend onderwerp is, vooral in combinatie met de onderwerping van hoogwaardige AI-export naar Rusland, het Midden-Oosten en China.
Een beetje minder praten en een beetje meer actie?
Het is nog maar de vraag of deze gebeurtenissen tot wetgeving zullen leiden en of die wetgeving effectief zal zijn. Zonder wetgeving kunnen AI-ontwikkelaars doorgaan met het promoten van vrijwillige kaders zonder daaraan gebonden te zijn.
Zelfs als er wetten zijn, gaat AI snel en zijn er maar weinig mensen die de technologie en de gevolgen ervan echt begrijpen en zijn de meningen verdeeld.
De 'AI-godvaders' Geoffrey Hinton, Yoshio Bengio en Yann LeCun kunnen het zelfs niet eens worden over AI-risico'sHun verhoudingen en hoe ze aan te pakken.
Charlotte Walker-Osborn, technologiepartner bij het advocatenkantoor Morrison Foerster, verklaarde dat de Bletchley Declaration "waarschijnlijk zal leiden tot een zekere mate van internationale wetgevende en gouvernementele consensus over de belangrijkste uitgangspunten voor het reguleren van AI".
Enig niveau' is veelzeggende terminologie. Zoals Walker-Osborn opmerkt, "is een echt uniforme aanpak onwaarschijnlijk" vanwege de verschillende benaderingen van regelgeving en bestuur tussen landen. Consensus bereiken is één ding, maar het implementeren ervan in verschillende wettelijke en regelgevende kaders is iets heel anders.
Bovendien wijzen het ontbreken van bindende eisen, zoals Rishi Sunak toegeeft, en de afhankelijkheid van vrijwillige testovereenkomsten tussen overheden en grote AI-bedrijven op beperkingen.
Zonder afdwingbare regels kunnen verklaringen de tanden missen die nodig zijn om concrete verandering teweeg te brengen - net als het uitvoeringsbevel van Biden.
We zijn misschien een schokkende periode ingegaan van symbolische one-upmanship op het gebied van regelgeving, met concrete wetgeving die buiten China nog grotendeels in de pijplijn zit.
Volgens Deb Raji, een fellow aan het Mozilla StichtingDe top onthulde verschillende perspectieven.
"Ik denk dat de meningen in de verschillende landen over wat we precies moeten doen behoorlijk uiteenlopen," zei Raji, waaruit blijkt dat zelfs onder degenen die het eens zijn over het principe van regulering, de details omstreden blijven.
Anderen hadden eerder gezegd dat het Congres zo diep verdeeld is over sommige aspecten van AI dat wetgeving waarschijnlijk ver weg is.
Anu Bradford, professor in de rechten aan de Columbia University, zei: "Het Congres is zodanig gepolariseerd en zelfs disfunctioneel dat het zeer onwaarschijnlijk is dat het in de nabije toekomst enige zinvolle AI-wetgeving zal produceren."
Margaret Mitchell, onderzoeker en hoofd ethiek bij Hugging Face, stelde: "Regeringen zullen proberen hun nationale belangen te beschermen en veel van hen zullen proberen zichzelf als leider te profileren."
Betrouwbaarheid van vrijwillige kaders
Vertrouwen op vrijwillige kaders in welke vorm dan ook is historisch gezien niet betrouwbaar.
Van de mislukking van de Volkenbond en het Munch-akkoord in de jaren 1930 tot het Kyoto-protocol, het Akkoord van Parijs, de UN Guiding Principles (UNGP) en, in de bedrijfswereld, het Enron-schandaal, pogingen tot multilateraal vrijwillig beleid uit het verleden wekken geen vertrouwen.
De mondiale beleidsvorming op het gebied van AI dreigt in historische voetsporen te treden, waarbij beloften sneuvelen op de rotsen van de realpolitik. Voor het AI-beleid is een onevenwichtige vertegenwoordiging en invloed al blootgelegd. Mike Katell, een ethicus aan het Alan Turing Instituut, gewezen op regionale verschillenHij zei: "Er zijn grote kloven in het Zuiden. Er gebeurt heel weinig in Afrika."
Bovendien vereist regulering strenge, robuuste juridische processen om extreem machtige bedrijven, zoals Microsoft en Google, ter verantwoording te roepen.
De VS, het VK, de EU en China kunnen het zich veroorloven om het soort wetgevende kaders te creëren dat nodig is om op zijn minst te proberen techbedrijven verantwoordelijk te houden voor AI, maar hetzelfde kan niet worden gezegd van de meeste ontwikkelingslanden.
Dit concentreert de wettelijke bescherming in rijkere landen, waardoor andere landen kwetsbaar blijven voor uitbuiting, zowel op het gebied van arbeid voor gegevensverwerkende diensten, wat fundamenteel is voor de ontwikkeling van AI, als op het gebied van hun gegevens, die AI-bedrijven gemakkelijk zouden kunnen verzamelen door een gebrek aan digitale rechten.
Regionale prioriteiten verschillen
AI-regulering is niet alleen een binnenlandse aangelegenheid, maar een strategisch stuk op het internationale schaakbord.
De VS, bijvoorbeeld, heeft zijn hand laten zien met uitvoeringsbesluiten die AI-innovatie proberen te waarborgen en er tegelijkertijd voor zorgen dat deze in lijn blijft met democratische waarden en normen.
Op dezelfde manier heeft de EU proactief de AI Act voorgesteld, die als doel had om in een vroeg stadium wereldwijde normen voor AI-ontwikkeling en -gebruik vast te stellen. De EU was echter aantoonbaar te vroeg, waardoor het risico bestaat dat haar wetgeving verouderd of slecht gedefinieerd is voor de huidige AI-industrie, wat ook laat zien dat 'kijken en wachten' zowel een strategisch als een praktisch spel is.
Tot nu toe is het een hele uitdaging geweest om het EU-blok op één lijn te krijgen wat betreft de fijnere nuances van de AI-regelgeving, zoals welke grenzen er worden gesteld en voor wie, en hoe wetshandhaving moet optreden bij niet-naleving. Hoewel de wet waarschijnlijk binnenkort zal worden geratificeerd, zullen de gevolgen voor de huidige O&O op het gebied van AI uitwijzen hoe effectief de wet is in het afdwingen van naleving.
Ondertussen suggereren andere landen dat ze hun eigen regels zullen opstellen, zoals Canada en Japan die hun eigen AI-beleidsinitiatieven laten doorschemeren.
Bovendien zijn leidende AI-machten zich er terdege van bewust dat het opstellen van regelgevingskaders hen een concurrentievoordeel kan opleveren. De regelgeving die zij voorstellen, bepaalt niet alleen de normen voor ethisch AI-gebruik, maar definieert ook het speelveld voor economische concurrentie.
Het landschap van AI-governance zal een mozaïek van uiteenlopende benaderingen en filosofieën worden.
Discussies over "AI Koude Oorlog" verhevigen
Er is nog een ander aspect aan de agressieve houding van de VS om een westers model voor AI-ontwikkeling te worden: het versterkt de positie ten opzichte van China.
De concurrentie tussen de VS en China, die eerder een technologische dan een nucleaire of ideologische rivaliteit weerspiegelt, wordt door de media de "AI Koude Oorlog" genoemd, of misschien onschuldiger, de "AI-race".
Het gebruik van AI voor militaire doeleinden staat centraal in het verhaal van de VS over het beperken van de handel met China, waarbij halfgeleidertechnologie naar voren komt als een cruciaal strijdtoneel vanwege het fundamentele belang ervan voor het concurrentievermogen van de AI-industrie.
Het verhaal over de Koude Oorlog rond AI is ontstaan na de aankondiging van China dat het de ambitie heeft om in 2030 wereldwijd marktleider op het gebied van AI te zijn. Deze bewering leidde tot bezorgdheid en oproepen aan de VS om de technologische suprematie te behouden, niet alleen omwille van de VS zelf maar ook omwille van de democratische waarden in het algemeen, gezien het potentieel van AI om autoritaire regimes te versterken, zoals door sommigen wordt waargenomen in China's gebruik van technologie voor staatsbewaking.
Hooggeplaatste personen zoals voormalig Google CEO Eric Schmidt en politicoloog Graham T. Allison hebben vervolgens alarm geslagen over de snelle vooruitgang van China op het gebied van AI en suggereren dat de VS op cruciale gebieden achterloopt.
Bovendien vormt het potentieel voor onethisch gebruik van AI, dat vooral met China wordt geassocieerd, een ideologische kloof die doet denken aan de eerste Koude Oorlog. Ethische overwegingen bij de inzet van AI zijn dus een centraal narratief element geworden in discussies over deze opkomende Koude Oorlog.
Politico suggereerde later dat een alliantie van democratische landen nodig kan zijn om China's opmars in AI tegen te gaan.
De halfgeleiderindustrie is bijzonder controversieel, waarbij Taiwan een cruciale rol speelt in de geografische spanningen. De Taiwan Semiconductor Manufacturing Company (TSMC) staat in het middelpunt en de meeste halfgeleiders ter wereld worden geproduceerd of passeren Taiwan - een land waarvan China de soevereiniteit niet erkent. De meeste chips van Nvidia worden ook in Taiwan gemaakt.
De spanningen zijn ook overgeslagen naar handelsbeperkingen, zoals blijkt uit het feit dat Amerikaanse en Europese functionarissen de "AI Koude Oorlog" hebben aangehaald als rechtvaardiging voor het verbieden van Huawei's 5G-technologie bij openbare aanbestedingen vanwege zorgen over toezicht.
Daarnaast hebben zowel de Trump- als de Biden-regering beperkingen opgelegd aan het Nederlandse bedrijf ASML om de export van geavanceerde apparatuur voor halfgeleiderfabricage naar China te verhinderen, opnieuw vanwege risico's voor de nationale veiligheid.
Op het gebied van industriebeleid hebben de VS de Innovation and Competition Act en later de CHIPS and Science Act aangenomen, waarmee miljarden worden geïnvesteerd in technologie en productie om de vermeende Chinese dreiging tegen te gaan. De EU heeft deze aanpak weerspiegeld met haar European Chips Act, waarmee ze haar productiecapaciteiten voor halfgeleiders wil versterken.
AI-regulering gaat misschien een nieuwe fase in van intensere geopolitieke debatten.
Parallel hieraan betwijfelen sommigen zelfs of de technologie brengt grootschalige risico's met zich meeterwijl anderen er zeker van zijn. De verwarring aan alle kanten is voelbaar.