Det brittiska AI Safety Summit, i kombination med Bidens verkställande order, har tvingat fram AI-reglering i rampljuset, men den större bilden är fortfarande oklar.
Toppmötet samlade en bred grupp av intressenter och visade på ett kollektivt engagemang för att forma framtiden för AI.
Mottagandet av evenemanget i det politiska spektrumet av brittiska medier var i allmänhet positivt, och publikationer som vanligtvis är motståndare till Sunaks "gung-ho"-strategi, däribland Guardian, betecknade det som en övergripande framgång.
Även om det finns en kvardröjande känsla av att AI-relaterade politiska händelser hittills inte är mycket mer än löften, kan det vara alltför reduktionistiskt att avfärda dem helt och hållet.
Den Bletchley-deklarationen var ett av toppmötets viktigaste resultat och godkändes av 28 länder, däribland USA, Storbritannien, Kina och EU, vilket understryker det internationella samförståndet om tillsyn av AI.
Två dagar före toppmötet blev Bidens verkställande order redogjorde för USA:s strategi för att hantera AI-risker och visade landets nationella svar på vad som verkligen är en global utmaning.
Tidpunkten för ordern illustrerade ett försök att hävda ledarskap och sätta standarder inom det snabbt framväxande AI-området.
Tillsammans har dessa händelser verkligen slagit fast "varför?" med reglering - för att begränsa risker, betona fördelar och skydda utsatta grupper.
Vi har lämnats med frågan "hur?" och diskussionen om regleringens karaktär och genomförande är fortfarande omtvistad.
Stormakterna kämpar nu om ledarskapet på regleringsområdet, som Storbritanniens premiärminister Rishi Sunak hade för avsikt att leda när han utlyste toppmötet.
Det överskuggades något av den verkställande ordern, där vicepresident Kamala Harris helt klart sa: "Vi avser att de åtgärder vi vidtar på hemmaplan ska tjäna som modell för internationella åtgärder."
Gina Raimondo, USA:s handelsminister, fångade ytterligare den dubbla andan av konkurrens och samarbete i sitt uttalande vid toppmötet: "Även om nationerna konkurrerar hårt kan och måste vi söka globala lösningar på globala problem."
Ben Buchanan, Vita husets AI-rådgivare, sa följande om tanken bakom den nya exekutiva ordern: "USA:s ledarskap inom AI handlar inte bara om att uppfinna tekniken."
"Det handlar om att utforma och gemensamt utveckla de styrmekanismer, säkerhetsprotokoll, standarder och internationella institutioner som kommer att forma den här teknikens genomslagskraft."
Det verkar som om reglering av AI för USA är ett geopolitiskt konkurrenskraftigt ämne, särskilt i kombination med landets underkastelse av avancerade AI-exporter till Ryssland, Mellanöstern och Kina.
Lite mindre snack och lite mer verkstad?
Huruvida dessa händelser kommer att påskynda lagstiftning och om lagstiftningen kommer att vara effektiv är ännu oklart. Utan lagar på plats kan AI-utvecklare fortsätta att främja frivilliga ramverk utan att vara bundna av dem.
Även om det finns lagar på plats rör sig AI snabbt, och de som verkligen förstår tekniken och dess effekter är få och har delade meningar.
"AI-gudfäderna" Geoffrey Hinton, Yoshio Bengio och Yann LeCun kan inte ens komma överens om AI-risker, deras proportioner och hur man hanterar dem.
Charlotte Walker-Osborn, technology partner på advokatbyrån Morrison Foerster, konstaterade att Bletchley-deklarationen "sannolikt kommer att ytterligare driva på en viss nivå av internationell lagstiftning och samförstånd mellan regeringar kring viktiga principer för reglering av AI".
"Någon nivå" är en avslöjande terminologi. Som Walker-Osborn påpekar är "en verkligt enhetlig strategi osannolik" på grund av olika strategier för reglering och styrning i olika länder. Att uppnå samförstånd är en sak, men att implementera det i olika lagar och regelverk är en helt annan.
Avsaknaden av bindande krav, som Rishi Sunak medger, och förlitandet på frivilliga testavtal mellan regeringar och stora AI-företag pekar dessutom på ytterligare begränsningar.
Utan verkställbara regler kan deklarationer sakna den kraft som krävs för att driva fram konkreta förändringar - på samma sätt som Bidens verkställande order.
Vi kan ha gått in i en omskakande period av symbolisk reglering, där konkret lagstiftning fortfarande till stor del är under utarbetande utanför Kina.
Enligt Deb Raji, stipendiat vid Institutet för Mozilla-stiftelsenUnder toppmötet framkom olika perspektiv.
"Jag tror att det finns ganska olika uppfattningar i olika länder om exakt hur man ska göra", säger Raji, vilket visar att även bland dem som är överens om principen om reglering är detaljerna fortfarande omtvistade.
Andra har tidigare sagt att kongressen är så djupt splittrad om vissa aspekter av AI att lagstiftning sannolikt ligger långt fram i tiden.
Anu Bradford, juridikprofessor vid Columbia University, sa: "Kongressen är djupt polariserad och till och med dysfunktionell i den utsträckning att det är mycket osannolikt att den kommer att producera någon meningsfull AI-lagstiftning inom en snar framtid."
Margaret Mitchell, forskare och etisk chef på Hugging Face, konstaterade också att "regeringar kommer att försöka skydda sina nationella intressen och många av dem kommer att försöka etablera sig som ledare".
Tillförlitligheten hos frivilliga ramverk
Att förlita sig på frivilliga ramverk i någon form är inte historiskt tillförlitligt.
Från misslyckandet med Nationernas Förbund och Munch-avtalet på 1930-talet till Kyotoprotokollet, Parisavtalet, FN:s vägledande principer (UNGP) och, inom företagsvärlden, Enron-skandalen - tidigare försök till multilateral frivillig politik inger inte förtroende.
Den globala AI-politiken riskerar att följa i historiens fotspår, med löften som bryts mot realpolitikens stenar. När det gäller AI-policy har en obalans i representation och inflytande redan avslöjats. Mike Katell, etikforskare vid Alan Turing Institute, pekade på regionala skillnader"Det finns stora luckor i den globala södern. Det händer väldigt lite i Afrika."
Dessutom kräver reglering rigorösa och robusta rättsliga processer för att ställa extremt mäktiga företag som Microsoft och Google till svars.
USA, Storbritannien, EU och Kina har råd att skapa de typer av lagstiftningsramar som krävs för att åtminstone försöka hålla teknikföretag ansvariga för AI, men detsamma kan inte sägas om de flesta utvecklingsländer.
Detta koncentrerar det rättsliga skyddet till rikare länder, vilket gör att andra länder blir sårbara för exploatering, både när det gäller arbetskraft för datatillverkningstjänster, vilket är grundläggande för AI-utvecklingen, och när det gäller deras data, som AI-företag lätt kan skörda på grund av bristen på digitala rättigheter.
Regionala prioriteringar skiljer sig åt
Reglering av AI är inte bara en nationell fråga utan en strategisk pjäs på det internationella schackbrädet.
USA har t.ex. visat framfötterna med exekutiva order som syftar till att skydda AI-innovation och samtidigt säkerställa att den är förenlig med demokratiska värderingar och normer.
På samma sätt har EU proaktivt föreslagit AI Act, som syftar till att tidigt fastställa globala standarder för utveckling och användning av AI. Man kan dock hävda att EU var för tidigt ute och riskerade att dess lagstiftning skulle bli föråldrad eller dåligt definierad för den nuvarande AI-industrin, vilket också visar att "titta på och vänta" är ett strategiskt spel lika mycket som ett praktiskt.
Hittills har det varit svårt att ena EU om de finare nyanserna i AI-regleringen, t.ex. vilka gränser som ska sättas och för vem, och hur brottsbekämpande myndigheter ska agera vid bristande efterlevnad. Lagen kommer sannolikt att ratificeras inom kort, men dess inverkan på pågående forskning och utveckling inom AI kommer att visa hur effektiv lagen är när det gäller att genomdriva efterlevnad.
Samtidigt antyder andra att de kommer att utforma sina egna regler, med länder som Kanada och Japan som antyder sina egna kommande AI-policyinitiativ.
Dessutom är ledande AI-makter mycket medvetna om att de kan få en konkurrensfördel genom att införa regelverk. De regelverk som de föreslår sätter inte bara standarden för etisk AI-användning utan definierar också spelplanen för ekonomisk konkurrens.
Landskapet för styrning av AI kommer att bli en mosaik av olika tillvägagångssätt och filosofier.
Debatten om "AI:s kalla krig" intensifieras
Det finns en annan aspekt av USA:s aggressiva hållning när det gäller att bli en västerländsk modell för AI-utveckling - det stärker USA:s position gentemot Kina.
Konkurrensen mellan USA och Kina speglar en rivalitet som är övervägande teknisk snarare än nukleär eller ideologisk och har av media kallats "AI-kalla kriget", eller kanske mer oskyldigt "AI-kapplöpningen".
Att använda AI för militära ändamål är en central del av USA:s strategi för att begränsa handeln med Kina, och halvledartekniken framstår som ett avgörande slagfält eftersom den är av grundläggande betydelse för AI-industrins konkurrenskraft.
Narrativet kring det kalla AI-kriget tog fart efter Kinas tillkännagivande av sin ambition att bli den globala AI-ledaren 2030. Detta påstående väckte oro och uppmaningar till USA att behålla sin tekniska överlägsenhet, inte bara för sin egen skull utan för demokratiska värden i stort, med tanke på AI:s potential att förstärka auktoritära regimer, vilket vissa har observerat i Kinas användning av teknik för statlig övervakning.
Högt uppsatta personer som Googles tidigare VD Eric Schmidt och statsvetaren Graham T. Allison har därefter slagit larm om Kinas snabba framsteg inom AI, vilket tyder på att USA kan ligga efter på viktiga områden.
Potentialen för en oetisk användning av AI, som främst förknippas med Kina, innebär dessutom en ideologisk klyfta som påminner om det första kalla kriget. Etiska överväganden i samband med användningen av AI har därför blivit ett centralt inslag i diskussionerna om detta nya kalla krig.
Politico föreslog senare att en allians av demokratiska nationer kan vara nödvändig för att motverka Kinas uppgång inom AI.
Halvledarindustrin är särskilt omtvistad, och Taiwan spelar en avgörande roll i de geografiska spänningarna. Taiwan Semiconductor Manufacturing Company (TSMC) ligger i centrum, och majoriteten av världens halvledare tillverkas eller passerar genom Taiwan - ett land vars suveränitet inte erkänns av Kina. Faktum är att de flesta av Nvidias chip också tillverkas i Taiwan.
Spänningarna har också spillt över på handelsrestriktioner, som när amerikanska och europeiska tjänstemän har hänvisat till "AI-kalla kriget" som motivering för att förbjuda Huaweis 5G-teknik i offentliga upphandlingsprocesser på grund av oro för övervakning.
Dessutom har både Trump- och Biden-administrationerna infört begränsningar för det nederländska företaget ASML, vilket förhindrar export av avancerad utrustning för halvledartillverkning till Kina, återigen med hänvisning till nationella säkerhetsrisker.
På den industripolitiska fronten har USA antagit Innovation and Competition Act och senare CHIPS and Science Act, som kanaliserar miljarder till teknik och tillverkning för att motverka det upplevda kinesiska hotet. EU har följt samma linje med European Chips Act, som syftar till att stärka EU:s kapacitet inom halvledartillverkning.
Regleringen av AI är kanske på väg in i en ny fas av mer intensiv geopolitisk debatt.
Parallellt med detta tvivlar vissa till och med på om tekniken medför stora riskermedan andra är säkra på det. Förvirringen på alla sidor är påtaglig.