Demis Hassabis, administrerende direktør i Google DeepMind, argumenterte for at risikoen ved kunstig intelligens bør tas like alvorlig som klimakrisen, og at det må reageres umiddelbart.
I en tale i forkant av Storbritannias AI Safety Summit, som finner sted 1. og 2. november, hevdet Hassabis at verden ikke bør utsette sin respons på utfordringene som kunstig intelligens medfører.
"Vi må ta risikoen ved kunstig intelligens like alvorlig som andre store globale utfordringer, som klimaendringene", sa Hassabis.
"Det tok det internasjonale samfunnet for lang tid å koordinere en effektiv global respons på dette, og vi lever med konsekvensene av det nå. Vi har ikke råd til den samme forsinkelsen med AI."
Hassabis refererer til FNs klimapanel (IPCC).
Han og andre har tatt til orde for et uavhengig internasjonalt reguleringsorgan for kunstig intelligens, i likhet med IPCC eller Det internasjonale atomenergibyrået (IAEA) etablert i 1957.
I 1955 uttalte kommissær Willard F. Libby om kjernekraft: "Vår store fare er at denne store fordelen for menneskeheten vil bli drept i fødselen av unødvendig regulering."
Etter at IAEA ble etablert, var det relativt få atomkatastrofer frem til Tsjernobyl. Vi vet ennå ikke hvordan en "AI-katastrofe" kan se ut.
Balanse mellom fordeler og risiko ved kunstig intelligens
Hassabis anerkjente det transformative potensialet som ligger i kunstig intelligens på områder som medisin og vitenskap, men fremhevet også de eksistensielle truslene som teknologien utgjør, særlig utviklingen av superintelligente systemer - eller kunstig generell intelligens (AGI).
"Jeg tror vi må begynne med noe som IPCC, der det er en vitenskapelig og forskningsmessig enighet med rapporter, og så bygge opp derfra", anbefaler Hassabis.
"Så skulle jeg gjerne sett at vi etter hvert fikk et tilsvarende Cern for AI-sikkerhet, som forsker på dette - men internasjonalt. Og så kan det hende at det en dag finnes en slags parallell til IAEA, som faktisk reviderer disse tingene."
DeepMind har publisert en rekke arbeider om AI-sikkerhet, blant annet en teknisk blogg i samarbeid med flere universiteter som spesifiserer at modeller skal evalueres for "ekstreme risikoer" før noen form for trening finner sted.
DeepMind har også etablert eksperimentelle bevis på at AI oppsøker nye fremvoksende mål som uforutsigbart avviker fra utviklernes intensjoner - eller "rogue".
Hassabis og representanter fra andre store AI-selskaper, som OpenAI, vil delta på AI Safety Summit i november. Den britiske regjeringen har offentliggjort tidsplanen for den første dagen av arrangementet.