Oppsummering av dag to av Storbritannias toppmøte om AI-sikkerhet

2. november 2023

AI-toppmøte

På dag to av AI Safety Summit forsøkte Storbritannias statsminister Rishi Sunak å få gjennomslag for at AI-utviklere skal tillate at myndighetene evaluerer verktøyene før de lanseres på markedet. 

Sunak sa at toppmøtets resultater "vil tippe balansen til fordel for menneskeheten" og avslørte at industriledere, deriblant Meta, Google Deep Mind og OpenAI, har samtykket til forhåndstesting av AI-innovasjonene sine - noe de allerede hadde sagt seg villige til å gjøre i et nylig frivillig rammeverk utviklet av USA. 

Blant forpliktelsene som ble inngått på dag to av toppmøtet, var opprettelsen av et ekspertorgan kalt AI Safety Institute

En annen overskrift på dag to er avdukingen av en kommende "State of AI Science"-rapport ledet av "AI-gudfaren" Yoshio Bengio.

"Denne ideen er inspirert av hvordan FNs klimapanel ble opprettet for å oppnå internasjonal vitenskapelig konsensus", sier Sunak. 

Den omforent rammeverk tar til orde for omfattende sikkerhetsvurderinger av AI-modeller før og etter at de tas i bruk, og legger vekt på samarbeid om testing med myndigheter, særlig på områder som berører nasjonal sikkerhet og samfunnets velferd.

Bransjens engasjement for denne saken ble understreket av Demis Hassabis, administrerende direktør i Google DeepMind, som uttalte: "AI kan bidra til å løse noen av vår tids mest kritiske utfordringer, fra å kurere sykdommer til å løse klimakrisen. Men det vil også skape nye utfordringer for verden, og vi må sørge for at teknologien bygges og tas i bruk på en trygg måte. For å få til dette må myndighetene, industrien og sivilsamfunnet gjøre en felles innsats for å informere og utvikle robuste sikkerhetstester og -evalueringer. Jeg er glad for at Storbritannia nå lanserer AI Safety Institute for å få fortgang i dette viktige arbeidet."

Kina deltar ikke i disse multilaterale initiativene. Denne pakten får imidlertid støtte fra EU og ledende land som USA, Storbritannia, Japan, Frankrike og Tyskland, og støttes av teknologigiganter som Google, Amazon, Microsoft og Meta.

Statsministeren stilte spørsmål ved avtalenes frivillige karakter og fraværet av bindende lovgivning, men fastholdt at AI krever rask handling, og antydet at "bindende krav" til AI-selskaper kan være uunngåelig.

Sammen med gårsdagens Bletchley Park-erklæringenforsøkte toppmøtet å mobilisere til handling rundt kunstig intelligens, selv om kritikerne i stor grad har avfeid det som symbolsk snarere enn handlingsrettet. 

Før han gikk live med Sunak, la Musk ut en spøkefull tegning på X av figurer som representerer globale makter som diskuterer AI-risikoer, samtidig som de gnir seg i hendene over potensialet for dominans.

Han er om ikke annet kontroversiell, men man må si at det er et vittig ordspill for et toppmøte som i sin natur er basert på løfter. Det ville imidlertid være reduksjonistisk å antyde at det betyr at det ikke oppnår noe, men den reelle substansen bak samtalene forblir hypotetisk.

Som avslutning på toppmøtet utstedte den britiske regjeringen stolt Bletchley-erklæringen, som ble undertegnet av 28 regjeringer, deriblant Storbritannia, USA og EU, og som lover en felles tilnærming til sikkerhetsstandarder for kunstig intelligens, noe som minner om avtalene om klimakrisen.

Rishi Sunaks diplomatiske innsats på AI-toppmøtet har blitt anerkjent som en prestasjon, og har etablert Storbritannia som et foregangsland når det gjelder global sikkerhet og regulering av kunstig intelligens, noe som baner vei for Frankrikes vertskap for neste toppmøte i 2024.

Dag to av toppmøtet

Dag to av toppmøtet ble toppet av en debatt mellom Sunak og Musk. Her er noen av de viktigste hendelsene fra sist på dagen (først) til tidligere (sist). 

Se den 50 minutter lange sendingen her.

  • Musk hevdet at en fysisk "av-bryter" kunne slå av AI i tilfelle katastrofale problemer. "Hva om de en dag får en programvareoppdatering, og plutselig ikke er så vennlige likevel?" sa Musk til Sunak.
  • Når Sunak spør hvorfor Musk nylig endret Twitters system for innholdsmoderering, argumenterer Musk med at alle innholdsmoderatorer har fordommer. Han spør: "Hvordan kan vi ha en konsensusdrevet tilnærming til sannheten?" og sier at målet hans er å komme frem til en "renere sannhet". Musk hevder at hans nye modereringssystem ganske enkelt gir mer kontekst og åpenhet, og sier: "Alt er åpen kildekode. Du kan se alle dataene og kan se om det har vært noen som har misbrukt systemet, foreslå forbedringer... Sannhet lønner seg."
  • Musk spår at AI-roboter i fremtiden kan bli ekte venner med mennesker. Han hevder at de vil ha detaljert hukommelse og kunnskap fra omfattende lesing, og sier: "Du kan snakke med den hver dag, og du vil faktisk ha en god venn. Det vil faktisk være en virkelig ting.
  • Musk kommer med en dristig spådom om at AI vil utvikle seg til et punkt der "ingen jobb er nødvendig" for mennesker. Han sier: "Du kan ha en jobb hvis du ønsker det for personlig tilfredsstillelse, AI kan gjøre alt." Musk sier at dette kan være positivt eller negativt, og at det kan skape utfordringer når det gjelder å finne mening og formål. Men han hevder også at det kan gi "universell høy inntekt" og skape de beste veilederne. Alt i alt ser han mange fordeler for utdanning, produktivitet og automatisering av farlige jobber.
  • Når Sunak bemerker at han møtte kritikk for å ha invitert Kina, roser Musk beslutningen som "modig". Musk argumenterer for at det er viktig å samarbeide med Kina om AI-sikkerhet, og sier at deres deltakelse er et veldig positivt tegn.
  • Musk sier til Sunak at han mener myndighetene må fungere som "dommere" for å sikre offentlig sikkerhet med AI, samtidig som de tillater innovasjon. Han gjentar sitt syn om at AI generelt sett vil være "en kraft for det gode". Dette er i strid med hva Musk har sagt tidligere, noe som viser hans slingrende syn på AI. 
  • I forkant av samtalen uttrykker Musk optimisme om AIs potensial, men advarer om at det kan utgjøre en risiko, og bruker analogien med et "magisk åndeproblem" der ønsker ofte går galt
  • Under pressekonferansen forsvarte Sunak de tiltakene myndighetene har iverksatt for å håndtere sikkerhetsrisikoen ved kunstig intelligens, og sa at de gjør det "riktige og ansvarlige" for å beskytte publikum, selv om risikoen fortsatt er usikker.
  • En ny meningsmåling viser at bare 15% av befolkningen har tillit til den britiske regjeringens evne til å regulere AI på en effektiv måte. 29% uttrykker ingen tillit i det hele tatt.
  • På spørsmål om AI kan utgjøre en eksistensiell trussel, svarer Sunak at det er sannsynlig at AI kan medføre risikoer på størrelse med atomkrig eller en pandemi. Han mener ledere derfor har en plikt til å ta beskyttende skritt.
  • Vitenskapsminister Donelan sier at den AI-risikoen hun er mest bekymret for, er et "Terminator-scenario" der maskinene blir ukontrollerbare. Hun ser dette som en lavere sannsynlighet, men den største konsekvensen.

Flere analyser av toppmøtet vil komme i dagene som følger. Alt i alt er inntrykket som gis, en symbolsk viktig begivenhet med et enormt potensial.

Men potensialet lar seg ikke uten videre omsette til lovgivning og, i siste instans, handling. Det vil bare tiden vise.

Bli med i fremtiden


ABONNER I DAG

Tydelig, kortfattet og omfattende. Få et grep om AI-utviklingen med DagligAI

Sam Jeans

Sam er en vitenskaps- og teknologiskribent som har jobbet i ulike oppstartsbedrifter innen kunstig intelligens. Når han ikke skriver, leser han medisinske tidsskrifter eller graver seg gjennom esker med vinylplater.

×

GRATIS PDF EKSKLUSIV
Hold deg i forkant med DailyAI

Meld deg på vårt ukentlige nyhetsbrev og få eksklusiv tilgang til DailyAIs nyeste e-bok: "Mastering AI Tools: Din 2024-guide til økt produktivitet".

*Ved å abonnere på vårt nyhetsbrev aksepterer du vår Retningslinjer for personvern og vår Vilkår og betingelser