Sammanfattning av dag två av Storbritanniens AI Safety Summit

2 november 2023

AI-toppmöte

Under dag två av AI Safety Summit försökte Storbritanniens premiärminister Rishi Sunak driva igenom att AI-utvecklare ska tillåta statlig utvärdering av verktyg innan de lanseras på marknaden. 

Sunak sa att toppmötets resultat "kommer att tippa balansen till mänsklighetens fördel" och avslöjade att branschledare, inklusive Meta, Google Deep Mind och OpenAI, har samtyckt till att testa sina AI-innovationer innan de släpps - något de redan hade sagt sig göra i ett frivilligt ramverk som nyligen utvecklats av USA. 

De åtaganden som gjordes under toppmötets andra dag omfattade inrättandet av ett expertorgan vid namn Institutet för AI-säkerhet

En annan huvudnyhet under dag två är presentationen av en kommande rapport om "State of AI Science" under ledning av "AI-gudfadern" Yoshio Bengio.

"Den här idén är inspirerad av hur den mellanstatliga panelen för klimatförändringar inrättades för att nå internationell vetenskaplig konsensus", säger Sunak. 

Den överenskommen ram förespråkar omfattande säkerhetsbedömningar av AI-modeller innan och efter att de tas i drift, med betoning på testsamarbeten som involverar regeringar, särskilt inom områden som påverkar nationell säkerhet och samhällets välfärd.

Branschens engagemang för denna fråga underströks av Demis Hassabis, VD för Google DeepMind, som sa: "AI kan hjälpa till att lösa några av vår tids mest kritiska utmaningar, från att bota sjukdomar till att hantera klimatkrisen. Men det kommer också att innebära nya utmaningar för världen och vi måste se till att tekniken byggs och används på ett säkert sätt. För att lyckas med detta krävs en gemensam insats från regeringar, näringsliv och civilsamhälle för att informera om och utveckla robusta säkerhetstester och utvärderingar. Jag är glad över att se Storbritannien lansera AI Safety Institute för att påskynda framstegen i detta viktiga arbete."

Kina deltar inte i dessa multilaterala initiativ. Denna pakt har dock stöd från EU och ledande länder som USA, Storbritannien, Japan, Frankrike och Tyskland och stöds av teknikjättar som Google, Amazon, Microsoft och Meta.

Premiärministern fick frågor om avtalens frivilliga karaktär och avsaknaden av bindande lagstiftning, men han vidhöll att AI kräver snabba åtgärder och antydde att "bindande krav" för AI-företag kan vara oundvikliga.

Tillsammans med gårdagens Bletchley Park förklaringförsökte toppmötet få till stånd åtgärder kring AI, även om kritikerna till stor del har avfärdat det som symboliskt snarare än handlingsinriktat. 

Innan han gick live med Sunak tog Musk till X för att lägga upp en hånfull tecknad bild av figurer som representerar globala makter som diskuterar AI-risker samtidigt som de gnuggar händerna över potentialen för dominans.

Han är om inte kontroversiell, men man måste säga att det är en kvick replik för ett toppmöte som till sin natur är baserat på löften. Det vore dock reduktionistiskt att påstå att det betyder att det inte uppnår någonting, men den verkliga substansen bakom samtalen förblir hypotetisk.

Som avslutning på toppmötet utfärdade den brittiska regeringen stolt Bletchley-deklarationen, som undertecknats av 28 regeringar, däribland Storbritannien, USA och EU, och som utlovar en samarbetsstrategi för säkerhetsstandarder för AI, vilket påminner om klimatkrisavtalen.

Sammantaget har Rishi Sunaks diplomatiska insatser vid AI-toppmötet erkänts som en prestation som etablerat Storbritannien som en pionjär i arbetet med global AI-säkerhet och reglering, vilket banar väg för Frankrikes värdskap för nästa toppmöte 2024.

Dag två av toppmötet

Dag två av toppmötet toppades av en debatt mellan Sunak och Musk. Här är några av de viktigaste händelserna från det senaste på dagen (första) till det tidigare (sista). 

Se den 50 minuter långa sändningen här.

  • Musk hävdade att en fysisk "avstängningsknapp" skulle kunna stänga av AI i händelse av katastrofala problem. "Tänk om de en dag får en mjukvaruuppdatering och plötsligt inte är så vänliga trots allt?" sa Musk till Sunak.
  • När Sunak frågar varför Musk nyligen ändrade Twitters system för innehållsmoderering, hävdar Musk att alla innehållsmoderatorer har fördomar. Han frågar: "Hur kan vi ha en konsensusdriven inställning till sanningen?" och säger att hans mål är att nå en "renare sanning". Musk hävdar att hans nya modereringssystem helt enkelt ger mer sammanhang och transparens, och säger: "Allt är open source. Du kan se all data och kan se om det har förekommit något spel med systemet, föreslå förbättringar... Sanning lönar sig."
  • Musk förutspår att AI-robotar i framtiden kan bli riktiga vänner med människor. Han hävdar att de kommer att ha detaljerade minnen och kunskaper från omfattande läsning och säger: "Du kan prata med den varje dag, du kommer faktiskt att ha en bra vän. Det kommer faktiskt att vara på riktigt.
  • Musk gör den djärva förutsägelsen att AI kommer att utvecklas så långt att "inget jobb behövs" för människor. Han säger: "Du kan ha ett jobb om du vill för din personliga tillfredsställelse, AI kan göra allt." Musk säger att detta kan vara positivt eller negativt och innebära utmaningar när det gäller att hitta mening och syfte. Men han menar också att det kan ge "universella höga inkomster" och göra de bästa handledarna. Sammantaget ser han många fördelar för utbildning, produktivitet och automatisering av farliga jobb.
  • När Sunak konstaterar att han mött kritik för att ha bjudit in Kina berömmer Musk beslutet som "modigt". Musk menar att det är viktigt att samarbeta med Kina om AI-säkerhet och säger att deras deltagande är ett mycket positivt tecken.
  • Musk säger till Sunak att han anser att regeringar måste agera som "domare" för att säkerställa allmän säkerhet med AI samtidigt som de tillåter innovation. Han upprepar sin åsikt att AI överlag kommer att vara "en kraft för det goda". Detta är tvärtemot vad Musk har sagt tidigare, vilket visar på hans slingrande syn på AI. 
  • Inför deras samtal uttrycker Musk optimism om AI:s potential men varnar för att det kan innebära risker, och använder analogin med ett "magiskt geniproblem" där önskningar ofta går fel
  • Under sin presskonferens försvarade Sunak de åtgärder som myndigheterna vidtar för att hantera säkerhetsriskerna med AI och sa att de gör det "rätta och ansvarsfulla" för att skydda allmänheten, även om riskerna fortfarande är osäkra.
  • En ny opinionsundersökning visar att endast 15% av befolkningen har förtroende för den brittiska regeringens förmåga att effektivt reglera AI. 29% uttrycker inget förtroende alls.
  • På frågan om AI kan utgöra ett existentiellt hot svarar Sunak att det är troligt att det kan medföra risker i samma storleksordning som ett kärnvapenkrig eller en pandemi. Han menar att ledare därför har en skyldighet att vidta skyddsåtgärder.
  • Vetenskapsminister Donelan säger att den AI-risk som hon är mest orolig för är ett "Terminator-scenario" där maskiner blir okontrollerbara. Hon ser detta som en lägre sannolikhet men den högsta effekten.

Mer analys av toppmötet kommer under de kommande dagarna. Sammantaget är intrycket att det handlar om en symboliskt viktig händelse som har en enorm potential.

Men potential omvandlas inte utan vidare till lagstiftning och i slutändan till handling. Det kan bara tiden utvisa på den fronten.

Bli en del av framtiden


PRENUMERERA IDAG

Tydlig, kortfattad och heltäckande. Få grepp om AI-utvecklingen med DagligaAI

Sam Jeans

Sam är en vetenskaps- och teknikskribent som har arbetat i olika AI-startups. När han inte skriver läser han medicinska tidskrifter eller gräver igenom lådor med vinylskivor.

×

GRATIS PDF EXKLUSIV
Ligg steget före med DailyAI

Registrera dig för vårt veckovisa nyhetsbrev och få exklusiv tillgång till DailyAI:s senaste e-bok: "Mastering AI Tools: Din 2024-guide till förbättrad produktivitet".

*Genom att prenumerera på vårt nyhetsbrev accepterar du vår Integritetspolicy och våra Villkor och anvisningar