Det britiske AI Safety Summit, kombinert med Bidens dekret, har tvunget AI-regulering inn i rampelyset, men det større bildet er fortsatt uklart.
Toppmøtet samlet en mangfoldig gruppe interessenter og demonstrerte et kollektivt engasjement for å forme fremtiden for kunstig intelligens.
Mottakelsen av arrangementet i hele det politiske spekteret av britiske medier var generelt positiv, og publikasjoner som vanligvis er i opposisjon til Sunaks "gung-ho"-tilnærming, deriblant The Guardian, omtalte det som en suksess.
Selv om det er en følelse av at AI-relaterte politiske hendelser til dags dato ikke er stort mer enn løfter, kan det være for reduksjonistisk å avvise dem helt.
Den Bletchley-erklæringen var et av toppmøtets viktigste resultater, som ble godkjent av 28 land, inkludert USA, Storbritannia, Kina og EU, noe som understreker den internasjonale enigheten om tilsyn med kunstig intelligens.
To dager før toppmøtet ble Bidens eksekutivordre skisserte USAs strategi for å håndtere risikoer knyttet til kunstig intelligens, og viste landets nasjonale svar på det som utvilsomt er en global utfordring.
Tidspunktet for ordren illustrerte et forsøk på å hevde lederskap og sette standarder på det raskt voksende AI-feltet.
Til sammen har disse hendelsene bidratt til å tydeliggjøre "hvorfor?" regulering - for å begrense risiko, fremheve fordeler og beskytte sårbare grupper.
Vi har blitt sittende igjen med spørsmålet "hvordan?", og diskursen rundt reguleringens natur og gjennomføring er fortsatt omstridt.
Stormaktene kjemper nå om lederskapet i reguleringsarbeidet, som Storbritannias statsminister Rishi Sunak var innstilt på å lede da han annonserte toppmøtet.
Det ble noe overskygget av dekretet, der visepresident Kamala Harris sa rett ut: "Vi har til hensikt at de tiltakene vi iverksetter på hjemmebane, skal tjene som en modell for internasjonal handling."
Gina Raimondo, USAs handelsminister, understreket den doble ånden av konkurranse og samarbeid i sin uttalelse på toppmøtet: "Selv om nasjonene konkurrerer hardt, kan og må vi søke etter globale løsninger på globale problemer."
Ben Buchanan, Det hvite hus' AI-rådgiver, sa følgende om tankegangen bak den nylige presidentordren: "USAs lederskap innen AI handler ikke bare om å finne opp teknologien."
"Det handler om å utforme og være med på å utvikle styringsmekanismer, sikkerhetsprotokoller, standarder og internasjonale institusjoner som vil forme denne teknologiens innvirkning."
Det ser ut til at regulering av kunstig intelligens er et geopolitisk konkurransedyktig tema for USA, spesielt når det kombineres med landets underkastelse av avansert AI-eksport til Russland, Midtøsten og Kina.
Litt mindre prat og litt mer handling?
Det er uvisst om disse hendelsene vil fremskynde lovgivning, og om lovgivningen vil være effektiv. Uten lover på plass kan AI-utviklere fortsette å fremme frivillige rammeverk uten å være bundet av dem.
Selv med lover på plass beveger AI seg raskt, og de som virkelig forstår teknologien og konsekvensene av den, er få og har delte meninger.
"AI-gudfedrene" Geoffrey Hinton, Yoshio Bengio og Yann LeCun kan ikke engang bli enige om AI-risikoer, deres proporsjoner, og hvordan man kan takle dem.
Charlotte Walker-Osborn, teknologipartner i advokatfirmaet Morrison Foerster, uttalte at Bletchley-erklæringen "sannsynligvis vil bidra til å skape en viss grad av internasjonal konsensus om sentrale prinsipper for regulering av kunstig intelligens".
"Et visst nivå" er en avslørende terminologi. Som Walker-Osborn påpeker, er "en virkelig enhetlig tilnærming usannsynlig" på grunn av ulike tilnærminger til regulering og styring i de ulike landene. Én ting er å oppnå konsensus, noe helt annet er å implementere den på tvers av ulike juridiske og regulatoriske rammeverk.
Fraværet av bindende krav, som Rishi Sunak innrømmer, og det faktum at myndighetene og de store AI-selskapene baserer seg på frivillige testavtaler, peker også på begrensninger.
Uten håndhevbare regler kan erklæringer mangle den nødvendige gjennomslagskraften for å få til konkrete endringer - på samme måte som Bidens presidentordre.
Vi kan ha gått inn i en rystende periode med symbolsk oppvisning i regulering, mens konkret lovgivning fortsatt i stor grad er i støbeskeen utenfor Kina.
Ifølge Deb Raji, stipendiat ved Mozilla FoundationPå toppmøtet kom det frem ulike perspektiver.
"Jeg tror det er ganske ulike oppfatninger i de ulike landene om hva som bør gjøres", sier Raji, og viser at selv blant dem som er enige om prinsippet om regulering, er det fortsatt uenighet om detaljene.
Andre har tidligere sagt at Kongressen er så dypt splittet i synet på enkelte aspekter ved kunstig intelligens at det sannsynligvis er langt frem til lovgivning.
Anu Bradford, jusprofessor ved Columbia University, sa: "Kongressen er dypt polarisert og til og med dysfunksjonell i en slik grad at det er svært usannsynlig at den vil produsere noen meningsfull AI-lovgivning i nær fremtid."
Margaret Mitchell, forsker og etisk sjef i Hugging Face, uttalte: "Regjeringer vil forsøke å beskytte sine nasjonale interesser, og mange av dem vil forsøke å etablere seg som ledere."
Påliteligheten til frivillige rammeverk
Å basere seg på frivillige rammeverk i noen form er ikke historisk pålitelig.
Fra Folkeforbundets og Munch-avtalens fiasko på 1930-tallet til Kyoto-protokollen, Paris-avtalen, FNs veiledende prinsipper (UNGP) og Enron-skandalen i næringslivet - tidligere forsøk på multilateral, frivillig politikk er ikke tillitvekkende.
Den globale AI-politikken risikerer å følge i historiens fotspor, med løfter som brytes på realpolitikkens klipper. Når det gjelder AI-politikk, er det allerede avdekket en ubalanse i representasjon og innflytelse. Mike Katell, etikkforsker ved Alan Turing Institute, påpekte regionale forskjeller"Det er store hull i det globale sør. Det skjer veldig lite i Afrika."
Regulering krever dessuten strenge og robuste juridiske prosesser for å stille ekstremt mektige selskaper som Microsoft og Google til ansvar.
USA, Storbritannia, EU og Kina har råd til å skape den typen lovverk som kreves for i det minste å forsøke å stille teknologiselskaper til ansvar for kunstig intelligens, men det samme kan ikke sies om de fleste utviklingsland.
Dette konsentrerer rettsvernet i de rikeste landene, mens andre blir sårbare for utnyttelse, både når det gjelder arbeidskraft for datamerkingstjenester, som er grunnleggende for AI-utviklingen, og når det gjelder dataene deres, som AI-selskaper lett kan høste av på grunn av manglende digitale rettigheter.
Ulike regionale prioriteringer
Regulering av kunstig intelligens er ikke bare et nasjonalt anliggende, men en strategisk brikke på det internasjonale sjakkbrettet.
USA har for eksempel vist seg frem med dekreter som skal sikre KI-innovasjon og samtidig sørge for at den er i tråd med demokratiske verdier og normer.
På samme måte har EU proaktivt foreslått en lov om kunstig intelligens, som hadde som mål å sette tidlige globale standarder for utvikling og bruk av kunstig intelligens. EU var imidlertid for tidlig ute, noe som kan ha ført til at lovgivningen risikerer å bli utdatert eller dårlig definert for dagens AI-bransje, noe som også viser at det å "se an og vente" er like mye et strategisk som et praktisk spill.
Så langt har det vært en utfordring å forene EU-blokken om de finere nyansene i reguleringen av kunstig intelligens, for eksempel hvilke grenser som skal settes og for hvem, og hvordan rettshåndhevelse skal skje ved manglende overholdelse. Selv om loven sannsynligvis vil bli ratifisert snart, vil dens innvirkning på dagens forskning og utvikling innen kunstig intelligens vise hvor effektiv loven er når det gjelder å håndheve etterlevelse.
I mellomtiden antyder andre at de vil utforme sine egne regler, og land som Canada og Japan antyder at de vil komme med egne AI-politiske initiativer.
I tillegg er de ledende KI-aktørene svært bevisste på at det å etablere et regelverk kan gi dem et konkurransefortrinn. Regelverkene de foreslår, setter ikke bare standarder for etisk bruk av kunstig intelligens, men definerer også spillereglene for økonomisk konkurranse.
Landskapet for styring av kunstig intelligens kommer til å bli en mosaikk av ulike tilnærminger og filosofier.
Debatten om "kald krig med kunstig intelligens" intensiveres
USAs aggressive holdning til å bli en vestlig modell for KI-utvikling har også en annen side - den styrker USAs posisjon overfor Kina.
Konkurransen mellom USA og Kina gjenspeiler en rivalisering som hovedsakelig er teknologisk snarere enn kjernefysisk eller ideologisk, og i media har den blitt kalt "den kalde krigen om kunstig intelligens", eller kanskje mer uskyldig "AI-kappløpet".
Utnyttelse av kunstig intelligens til militære formål står sentralt i USAs narrativ om å begrense handelen med Kina, og halvlederteknologi fremstår som en avgjørende slagmark på grunn av sin grunnleggende betydning for AI-industriens konkurranseevne.
Fortellingen om den kalde krigen om kunstig intelligens fikk grobunn etter at Kina kunngjorde sin ambisjon om å bli verdensledende innen kunstig intelligens innen 2030. Denne påstanden utløste bekymring og krav om at USA må opprettholde sitt teknologiske overherredømme, ikke bare for USAs egen skyld, men for demokratiske verdier generelt, med tanke på potensialet for at kunstig intelligens kan forsterke autoritære regimer, slik noen har observert i Kinas bruk av teknologi i statlig overvåking.
Høyt profilerte personer som tidligere Google-sjef Eric Schmidt og statsviteren Graham T. Allison har senere slått alarm over Kinas raske utvikling innen kunstig intelligens, og antydet at USA kan sakke akterut på viktige områder.
Potensialet for uetisk bruk av kunstig intelligens, som først og fremst forbindes med Kina, utgjør dessuten en ideologisk kløft som minner om den første kalde krigen. Etiske betraktninger rundt bruken av kunstig intelligens har dermed blitt et sentralt narrativt element i diskusjonen om denne nye kalde krigen.
Politico foreslo senere at en allianse av demokratiske nasjoner kan være nødvendig for å motvirke Kinas fremgang innen KI.
Halvlederindustrien er spesielt omstridt, og Taiwan spiller en avgjørende rolle i de geografiske spenningene. Taiwan Semiconductor Manufacturing Company (TSMC) står i sentrum, og størstedelen av verdens halvledere produseres eller passerer gjennom Taiwan - et land hvis suverenitet ikke anerkjennes av Kina. De fleste av Nvidias chips produseres også i Taiwan.
Spenningene har også smittet over på handelsrestriksjoner, som når amerikanske og europeiske tjenestemenn har henvist til "den kalde krigen om kunstig intelligens" som begrunnelse for å forby Huaweis 5G-teknologi i offentlige anskaffelsesprosesser på grunn av bekymringer knyttet til overvåking.
I tillegg har både Trump- og Biden-administrasjonene innført begrensninger for det nederlandske selskapet ASML, som hindrer eksport av avansert utstyr for halvlederproduksjon til Kina, igjen med henvisning til nasjonale sikkerhetsrisikoer.
På den industripolitiske fronten har USA vedtatt Innovation and Competition Act og senere CHIPS and Science Act, som kanaliserer milliarder av kroner inn i teknologi og produksjon for å motvirke den antatte kinesiske trusselen. EU har fulgt samme strategi med sin European Chips Act, som har som mål å styrke kapasiteten innen halvlederproduksjon.
Regulering av kunstig intelligens er kanskje på vei inn i en ny fase med mer intens geopolitisk debatt.
Parallelt med dette tviler noen til og med på om teknologien utgjør en stor risikomens andre er sikre på det. Forvirringen er til å ta og føle på fra alle kanter.