Opsamling på dag to af Storbritanniens AI Safety Summit

2. november 2023

AI-topmøde

På dag to af AI Safety Summit forsøgte den britiske premierminister Rishi Sunak at slå fast, at AI-udviklere skal tillade myndighedernes evaluering af værktøjer, før de lanceres på markedet. 

Sunak sagde, at topmødets resultater "vil tippe balancen til fordel for menneskeheden" og afslørede, at industriledere, herunder Meta, Google Deep Mind og OpenAI, har indvilliget i at teste deres AI-innovationer før udgivelsen - noget, de allerede havde erklæret at gøre i en nylig frivillig ramme, der er udviklet af USA. 

De forpligtelser, der blev indgået på topmødets anden dag, omfattede oprettelsen af et ekspertorgan ved navn AI's sikkerhedsinstitut

En anden overskrift på dag to er afsløringen af en kommende "State of AI Science"-rapport under ledelse af "AI-gudfaderen" Yoshio Bengio.

"Denne idé er inspireret af den måde, hvorpå Det Mellemstatslige Panel for Klimaændringer blev oprettet for at opnå international videnskabelig konsensus", siger Sunak. 

Den aftalte rammer er fortaler for omfattende sikkerhedsvurderinger af AI-modeller, før og efter de går i luften, og lægger vægt på fælles testindsatser, der involverer regeringer, især på områder, der påvirker den nationale sikkerhed og samfundets velfærd.

Branchens engagement i denne sag blev understreget af bemærkninger fra Demis Hassabis, CEO for Google DeepMind, som sagde: "AI kan hjælpe med at løse nogle af de mest kritiske udfordringer i vores tid, fra at helbrede sygdomme til at tackle klimakrisen. Men det vil også skabe nye udfordringer for verden, og vi skal sikre, at teknologien bygges og anvendes sikkert. Hvis det skal lykkes, kræver det en kollektiv indsats fra regeringer, industri og civilsamfund for at informere og udvikle robuste sikkerhedstests og -evalueringer. Jeg er begejstret for at se Storbritannien lancere AI Safety Institute for at fremskynde fremskridt i dette vigtige arbejde."

Kina deltager ikke i disse multilaterale initiativer. Men pagten får støtte fra EU og førende lande som USA, Storbritannien, Japan, Frankrig og Tyskland og bakkes op af tech-giganter som Google, Amazon, Microsoft og Meta.

Mens statsministeren blev konfronteret med spørgsmål om aftalernes frivillige karakter og fraværet af bindende lovgivning, fastholdt han, at AI kræver hurtig handling, og antydede, at "bindende krav" til AI-virksomheder kan være uundgåelige.

Sammen med gårsdagens Bletchley Park-erklæringTopmødet forsøgte at mobilisere handling omkring AI, men kritikere har i høj grad afvist det som symbolsk snarere end handlingsorienteret. 

Før han gik live med Sunak, tog Musk til X for at poste en hånlig tegneserie af figurer, der repræsenterer globale magter, som diskuterer AI-risici, mens de samtidig gnider sig i hænderne over potentialet for dominans.

Han er intet mindre end kontroversiel, men man må sige, at det er en vittig bemærkning til et topmøde, der i sagens natur er baseret på løfter. Det ville være reduktionistisk at antyde, at det betyder, at det ikke opnår noget, men den virkelige substans bag forhandlingerne forbliver hypotetisk.

Som afslutning på topmødet udsendte den britiske regering stolt Bletchley-erklæringen, som blev underskrevet af 28 regeringer, herunder Storbritannien, USA og EU, og som lover en fælles tilgang til sikkerhedsstandarder for kunstig intelligens, der minder om aftaler om klimakrisen.

Alt i alt er Rishi Sunaks diplomatiske indsats på AI-topmødet blevet anerkendt som en bedrift, der etablerer Storbritannien som en pioner inden for global AI-sikkerhed og -regulering, hvilket baner vejen for Frankrigs værtskab for det næste topmøde i 2024.

Topmødets anden dag

Topmødets anden dag blev afsluttet med en debat mellem Sunak og Musk. Her er nogle af de vigtigste begivenheder fra det seneste på dagen (først) til det tidligere (sidst). 

Se den 50 minutter lange stream her.

  • Musk argumenterede for, at en fysisk "off switch" kunne lukke ned for AI i tilfælde af katastrofale problemer. "Hvad nu, hvis de en dag får en softwareopdatering, og de pludselig ikke er så venlige alligevel?" sagde Musk til Sunak.
  • Da Sunak spørger, hvorfor Musk for nylig ændrede Twitters indholdsmoderationssystem, argumenterer Musk for, at alle indholdsmoderatorer er forudindtagede. Han spørger: "Hvordan får vi en konsensusdrevet tilgang til sandheden?" og siger, at hans mål er at nå frem til en "renere sandhed". Musk hævder, at hans nye moderationssystem blot giver mere kontekst og gennemsigtighed, og siger: "Alt er open source. Man kan se alle data og kan se, om der er blevet spillet hasard med systemet, foreslå forbedringer ... Sandhed betaler sig."
  • Musk forudser, at AI-robotter i fremtiden kan blive sande venner med mennesker. Han hævder, at de vil have detaljeret hukommelse og viden fra omfattende læsning og siger: "Du kan tale med den hver dag, og du vil faktisk have en god ven. Det vil faktisk være en virkelig ting.
  • Musk kommer med den dristige forudsigelse, at AI vil udvikle sig til et punkt, hvor der "ikke er brug for noget job" for mennesker. Han siger: "Du kan have et job, hvis du vil have personlig tilfredsstillelse, AI kan gøre alt." Musk siger, at det kan være positivt eller negativt og give udfordringer i forhold til at finde mening og formål. Men han mener også, at det kan give en "universel høj indkomst" og skabe de bedste undervisere. Samlet set ser han mange fordele for uddannelse, produktivitet og automatisering af farlige job.
  • Da Sunak bemærker, at han blev kritiseret for at invitere Kina, roser Musk beslutningen som "modig". Musk argumenterer for, at det er vigtigt at samarbejde med Kina om AI-sikkerhed, og siger, at deres deltagelse er et meget positivt tegn.
  • Musk fortæller Sunak, at han mener, at regeringer skal fungere som "dommere" for at sikre den offentlige sikkerhed med AI, samtidig med at de tillader innovation. Han gentager sit synspunkt om, at AI overordnet set vil være "en styrke for det gode". Dette er i modstrid med, hvad Musk tidligere har sagt, hvilket viser hans svingende syn på AI. 
  • Forud for deres samtale udtrykker Musk optimisme omkring AI's potentiale, men advarer om, at det kan udgøre en risiko, idet han bruger analogien med et "magisk åndeproblem", hvor ønsker ofte går galt.
  • Under sin pressekonference forsvarede Sunak de skridt, regeringerne tager for at imødegå sikkerhedsrisici ved kunstig intelligens, og sagde, at de gør det "rigtige og ansvarlige" for at beskytte offentligheden, selv om risiciene stadig er usikre.
  • En ny undersøgelse viser, at kun 15% af befolkningen har tillid til den britiske regerings evne til effektivt at regulere AI. 29% udtrykker slet ingen tillid.
  • På spørgsmålet om, hvorvidt AI kan udgøre en eksistentiel trussel, siger Sunak, at det er sandsynligt, at det kan medføre risici på niveau med en atomkrig eller en pandemi. Han mener, at ledere derfor har pligt til at tage beskyttende skridt.
  • Videnskabsminister Donelan siger, at den AI-risiko, hun er mest bekymret for, er et "Terminator-scenarie", hvor maskinerne bliver ukontrollerbare. Hun ser det som en mindre sandsynlighed, men med den største effekt.

Der vil komme flere analyser af topmødet i de kommende dage. Overordnet set er indtrykket, at det er en symbolsk vigtig begivenhed med et enormt potentiale.

Men potentiale omsættes ikke uden videre til lovgivning og i sidste ende til handling. Det vil tiden vise.

Deltag i fremtiden


TILMELD DIG I DAG

Klar, kortfattet, omfattende. Få styr på AI-udviklingen med DailyAI

Sam Jeans

Sam er videnskabs- og teknologiforfatter og har arbejdet i forskellige AI-startups. Når han ikke skriver, kan han finde på at læse medicinske tidsskrifter eller grave i kasser med vinylplader.

×

GRATIS PDF EKSKLUSIVT
Vær på forkant med DailyAI

Tilmeld dig vores ugentlige nyhedsbrev og få eksklusiv adgang til DailyAI's seneste e-bog: 'Mastering AI Tools: Din 2024-guide til forbedret produktivitet'.

*Ved at tilmelde dig vores nyhedsbrev accepterer du vores Politik for beskyttelse af personlige oplysninger og vores Vilkår og betingelser