DeepMinds CEO drager sammenligning mellem AI-risici og klimakrisen

24. oktober 2023

DeepMind AI

Demis Hassabis, CEO for Google DeepMind, argumenterede for, at AI's risici skal tages lige så alvorligt som klimakrisen, og at der skal reageres med det samme.

I en tale forud for Storbritanniens AI Safety Summit, der finder sted den 1. og 2. november, hævdede Hassabis, at verden ikke bør forsinke sin reaktion på de udfordringer, som AI udgør. 

"Vi må tage risikoen ved kunstig intelligens lige så alvorligt som andre store globale udfordringer, f.eks. klimaforandringer", sagde Hassabis. 

 "Det tog det internationale samfund for lang tid at koordinere et effektivt globalt svar på dette, og vi lever med konsekvenserne af det nu. Vi har ikke råd til den samme forsinkelse med AI."

Hassabis henviser til Det Mellemstatslige Panel for Klimaændringer (IPCC). 

Han og andre har slået til lyd for et uafhængigt internationalt tilsynsråd for AI, svarende til IPCC eller Det Internationale Atomenergiagentur (IAEA) etableret i 1957.

I 1955 sagde kommissær Willard F. Libby om atomkraft: "Vores store fare er, at denne store fordel for menneskeheden vil blive dræbt i fødslen af unødvendig regulering."

Efter at IAEA blev oprettet, var der relativt få atomkatastrofer indtil Tjernobyl. Vi ved endnu ikke, hvordan en "AI-katastrofe" kan se ud. 

Afbalancering af fordele og risici ved AI

Hassabis anerkendte AI's transformative potentiale inden for områder som medicin og videnskab, men han fremhævede også de eksistentielle trusler, som teknologien udgør, især udviklingen af superintelligente systemer - eller kunstig generel intelligens (AGI). 

"Jeg tror, vi er nødt til at starte med noget som IPCC, hvor det er en videnskabelig og forskningsmæssig aftale med rapporter, og så bygge op derfra," anbefaler Hassabis. 

"Så kunne jeg godt tænke mig at se en pendant til Cern for AI-sikkerhed, som forsker i det - men på internationalt plan. Og så er der måske en dag en slags pendant til IAEA, som faktisk reviderer disse ting."

DeepMind har udgivet adskillige værker om AI-sikkerhed, herunder en teknisk blog i samarbejde med flere universiteter, der specificerer, at modeller skal evalueres for "ekstreme risici", før nogen form for træning finder sted. 

DeepMind har også etableret eksperimentelle beviser for, at AI opsøger nye fremspirende mål der uforudsigeligt afviger fra udviklernes intentioner - eller går "rogue".

Hassabis og repræsentanter fra andre store AI-virksomheder som OpenAI vil deltage i AI Safety Summit i november. Den britiske regering har frigivet tidsplanen til arrangementets første dag.

Deltag i fremtiden


TILMELD DIG I DAG

Klar, kortfattet, omfattende. Få styr på AI-udviklingen med DailyAI

Sam Jeans

Sam er videnskabs- og teknologiforfatter og har arbejdet i forskellige AI-startups. Når han ikke skriver, kan han finde på at læse medicinske tidsskrifter eller grave i kasser med vinylplader.

×

GRATIS PDF EKSKLUSIVT
Vær på forkant med DailyAI

Tilmeld dig vores ugentlige nyhedsbrev og få eksklusiv adgang til DailyAI's seneste e-bog: 'Mastering AI Tools: Din 2024-guide til forbedret produktivitet'.

*Ved at tilmelde dig vores nyhedsbrev accepterer du vores Politik for beskyttelse af personlige oplysninger og vores Vilkår og betingelser