Det britiske AI Safety Summit kombineret med Bidens bekendtgørelse har tvunget AI-regulering frem i rampelyset, men det større billede er stadig uklart.
Topmødet samlede en mangfoldig gruppe af interessenter, der demonstrerede et kollektivt engagement i at forme fremtiden for AI.
Modtagelsen af begivenheden på tværs af det politiske spektrum i de britiske medier var generelt positiv, og publikationer, der typisk er i opposition til Sunaks gung-ho-tilgang, herunder The Guardian, kaldte det for en overordnet succes.
Selv om der stadig er en fornemmelse af, at AI-relaterede politiske begivenheder til dato ikke er meget mere end løfter, er det måske alt for reduktionistisk at afvise dem helt.
Den Bletchley-erklæringen var et af topmødets vigtigste resultater, som blev godkendt af 28 lande, herunder USA, Storbritannien, Kina og EU, og som understregede den internationale enighed om tilsyn med kunstig intelligens.
To dage før topmødet blev Bidens Bekendtgørelse skitserede den amerikanske strategi for at håndtere AI-risici og fremviste landets nationale svar på, hvad der helt sikkert er en global udfordring.
Ordrens timing illustrerede et forsøg på at hævde lederskab og sætte standarder inden for det hurtigt udviklende AI-felt.
Tilsammen har disse begivenheder helt sikkert fastlagt reguleringens "hvorfor?" - for at begrænse risici, fremhæve fordele og beskytte sårbare grupper.
Vi står tilbage med spørgsmålet "hvordan?", og diskussionen om reguleringens karakter og udførelse er fortsat omstridt.
Stormagterne kæmper nu om lederskabet inden for regulering, som den britiske premierminister Rishi Sunak var opsat på at lede, da han annoncerede topmødet.
Det blev noget overskygget af bekendtgørelsen, hvor vicepræsident Kamala Harris sagde helt klart: "Vi har til hensigt, at de foranstaltninger, vi træffer på hjemmebane, skal tjene som model for international handling."
Gina Raimondo, USA's handelsminister, indfangede yderligere den dobbelte ånd af konkurrence og samarbejde i sin udtalelse på topmødet, hvor hun sagde: "Selv om nationer konkurrerer kraftigt, kan og skal vi søge globale løsninger på globale problemer."
Ben Buchanan, Det Hvide Hus' AI-rådgiver, sagde om tankegangen bag den seneste bekendtgørelse: "USA's lederskab inden for AI handler ikke kun om at opfinde teknologien."
"Det handler om at udforme og medudvikle styringsmekanismerne, sikkerhedsprotokollerne, standarderne og de internationale institutioner, der vil forme denne teknologis indflydelse."
Det ser ud til, at regulering af kunstig intelligens for USA er et geopolitisk konkurrencepræget emne, især når det kombineres med landets undertrykkelse af avanceret AI-eksport til Rusland, Mellemøsten og Kina.
Lidt mindre snak og lidt mere handling?
Det er uvist, om disse begivenheder vil fremskynde lovgivningen, og om den vil være effektiv. Uden lovgivning på plads kan AI-udviklere fortsætte med at fremme frivillige rammer uden at være bundet af dem.
Selv med love på plads bevæger AI sig hurtigt, og de, der virkelig forstår teknologien og dens konsekvenser, er få og langt imellem, og deres meninger er delte.
'AI-gudfædrene' Geoffrey Hinton, Yoshio Bengio og Yann LeCun kan ikke engang blive enige om AI-risicideres proportioner, og hvordan man tackler dem.
Charlotte Walker-Osborn, teknologipartner hos advokatfirmaet Morrison Foerster, udtalte, at Bletchley-erklæringen "sandsynligvis vil fremme en vis grad af international lovgivningsmæssig og statslig konsensus omkring de vigtigste principper for regulering af AI."
"Et vist niveau" er en afslørende terminologi. Som Walker-Osborn påpeger, er "en virkelig ensartet tilgang usandsynlig" på grund af forskellige tilgange til regulering og styring i de forskellige lande. At opnå konsensus er én ting, men at implementere den på tværs af forskellige juridiske og lovgivningsmæssige rammer er noget helt andet.
Desuden peger fraværet af bindende krav, som Rishi Sunak indrømmer, og afhængigheden af frivillige testaftaler mellem regeringer og store AI-firmaer yderligere på begrænsninger.
Uden regler, der kan håndhæves, kan erklæringer mangle de tænder, der er nødvendige for at skabe konkrete forandringer - ligesom Bidens bekendtgørelse.
Vi er måske gået ind i en rystende periode med symbolsk lovgivningsmæssig overlegenhed, hvor konkret lovgivning stadig er i støbeskeen uden for Kina.
Ifølge Deb Raji, der er stipendiat ved Mozilla FoundationTopmødet afslørede forskellige perspektiver.
"Jeg tror, der er ret forskellige opfattelser i de forskellige lande af, hvad der præcist skal gøres", siger Raji og viser, at selv blandt dem, der er enige i princippet om regulering, er der stadig uenighed om detaljerne.
Andre har tidligere sagt, at Kongressen er så dybt splittet i forhold til nogle aspekter af AI, at der sandsynligvis er lang vej til lovgivning.
Anu Bradford, juraprofessor ved Columbia University, sagde: "Kongressen er dybt polariseret og endda dysfunktionel i en sådan grad, at det er meget usandsynligt, at den vil producere nogen meningsfuld AI-lovgivning i den nærmeste fremtid."
På samme måde sagde Margaret Mitchell, der er forsker og etisk chef hos Hugging Face: "Regeringer vil forsøge at beskytte deres nationale interesser, og mange af dem vil forsøge at etablere sig som ledere."
Pålidelighed af frivillige rammer
At stole på frivillige rammer i nogen form er ikke historisk pålideligt.
Fra Folkeforbundets og Munch-aftalens fiasko i 1930'erne til Kyoto-protokollen, Paris-aftalen, UN Guiding Principles (UNGP) og Enron-skandalen i erhvervslivet - tidligere forsøg på multilateral frivillig politik er ikke tillidsvækkende.
Den globale AI-politik risikerer at følge i historiens fodspor med løfter, der brydes på realpolitikkens klipper. Når det gælder AI-politik, er en ubalance i repræsentation og indflydelse allerede blevet afsløret. Mike Katell, etisk stipendiat ved Alan Turing Institute, påpegede regionale forskelleog sagde: "Der er store huller i det globale syd. Der sker meget lidt i Afrika."
Desuden kræver regulering strenge, robuste juridiske processer for at stille ekstremt magtfulde virksomheder som Microsoft og Google til ansvar.
USA, Storbritannien, EU og Kina har råd til at skabe de lovgivningsmæssige rammer, der er nødvendige for i det mindste at forsøge at holde teknologivirksomhederne ansvarlige for AI, men det samme kan ikke siges om de fleste udviklingslande.
Dette koncentrerer den juridiske beskyttelse i rigere lande og efterlader andre sårbare over for udnyttelse, både med hensyn til arbejdskraft til datamærkningstjenester, som er grundlæggende for AI-udvikling, og med hensyn til deres data, som AI-virksomheder let kan høste på grund af manglende digitale rettigheder.
Regionale prioriteter er forskellige
AI-regulering er ikke blot et nationalt anliggende, men en strategisk brik på det internationale skakbræt.
USA har f.eks. vist sin hånd med bekendtgørelser, der søger at beskytte AI-innovation og samtidig sikre, at den forbliver i overensstemmelse med demokratiske værdier og normer.
På samme måde har EU proaktivt foreslået AI-loven, som havde til formål at fastsætte tidlige globale standarder for udvikling og brug af AI. EU var dog uden tvivl for tidligt ude og risikerede, at lovgivningen blev forældet eller dårligt defineret for den nuværende AI-industri, hvilket også viser, hvordan det at "holde øje og vente" er lige så meget et strategisk som et praktisk træk.
Indtil videre har det været en udfordring at forene EU-blokken om de finere nuancer af AI-regulering, såsom hvilke grænser der sættes og for hvem, og hvordan retshåndhævelse skal handle ved manglende overholdelse. Selv om loven sandsynligvis snart vil blive ratificeret, vil dens indvirkning på den nuværende AI-F&U vise, hvor effektiv loven er til at håndhæve overholdelse.
I mellemtiden antyder andre, at de vil udforme deres egne regler, og lande som Canada og Japan antyder deres egne kommende AI-politiske initiativer.
Derudover er førende AI-magter meget opmærksomme på, at etablering af lovgivningsmæssige rammer kan give dem en konkurrencefordel. De regler, de foreslår, sætter ikke kun standarderne for etisk brug af AI, men definerer også spillereglerne for den økonomiske konkurrence.
Landskabet for AI-styring vil blive en mosaik af forskellige tilgange og filosofier.
Debatterne om "AI-kold krig" intensiveres
Der er et andet aspekt ved USA's aggressive holdning til at blive en vestlig model for AI-udvikling - det styrker landets position over for Kina.
Konkurrencen mellem USA og Kina afspejler en rivalisering, der overvejende er teknologisk snarere end nuklear eller ideologisk, og medierne har kaldt den for "AI-koldkrigen" eller måske mere uskyldigt for "AI-kapløbet".
Udnyttelse af AI til militære formål er centralt i USA's fortælling om begrænsning af handel med Kina, og halvlederteknologi fremstår som en afgørende slagmark på grund af dens grundlæggende betydning for AI-industriens konkurrenceevne.
Fortællingen om den kolde krig om kunstig intelligens tog fart efter Kinas udmelding om sin ambition om at blive verdens førende inden for kunstig intelligens i 2030. Denne påstand udløste bekymring og opfordringer til USA om at bevare det teknologiske overherredømme, ikke kun for USA's egen skyld, men for demokratiske værdier i det hele taget, i betragtning af AI's potentiale til at styrke autoritære regimer, som nogle har observeret i Kinas brug af teknologi til statsovervågning.
Højt profilerede personer som Googles tidligere CEO Eric Schmidt og politologen Graham T. Allison har efterfølgende slået alarm over Kinas hurtige fremskridt inden for kunstig intelligens og antydet, at USA måske halter bagefter på vigtige områder.
Desuden udgør potentialet for uetisk brug af AI, som primært forbindes med Kina, en ideologisk kløft, der minder om den første kolde krig. Etiske overvejelser i forbindelse med anvendelsen af kunstig intelligens er derfor blevet et centralt element i diskussionerne om denne nye kolde krig.
Politico foreslog senere at en alliance af demokratiske nationer kan være nødvendig for at imødegå Kinas fremgang inden for AI.
Halvlederindustrien er særligt omstridt, og Taiwan spiller en afgørende rolle i de geografiske spændinger. Taiwan Semiconductor Manufacturing Company (TSMC) er i centrum, og størstedelen af verdens halvledere produceres eller passerer gennem Taiwan - et land, hvis suverænitet ikke anerkendes af Kina. Faktisk bliver de fleste af Nvidias chips også fremstillet i Taiwan.
Spændingerne har også smittet af på handelsrestriktionerne, som det ses, når amerikanske og europæiske embedsmænd har henvist til den "kolde AI-krig" som begrundelse for at forbyde Huaweis 5G-teknologi i offentlige indkøbsprocesser på grund af bekymringer om overvågning.
Derudover har både Trump- og Biden-administrationen indført begrænsninger for det hollandske firma ASML, som forhindrer eksport af avanceret udstyr til halvlederproduktion til Kina, igen med henvisning til nationale sikkerhedsrisici.
På den industripolitiske front vedtog USA Innovation and Competition Act og senere CHIPS and Science Act, som kanaliserer milliarder til teknologi og produktion for at modvirke den opfattede kinesiske trussel. EU har spejlet denne tilgang med sin European Chips Act, som søger at styrke EU's kapacitet inden for halvlederproduktion.
AI-regulering er måske på vej ind i en ny fase med en mere intens geopolitisk debat.
Parallelt med dette tvivler nogle endda på, om teknologi udgør store risicimens andre er sikre på det. Forvirringen på alle sider er til at tage og føle på.