Demis Hassabis, CEO van Google DeepMind, stelde dat de risico's van AI net zo serieus moeten worden genomen als de klimaatcrisis en dat er onmiddellijk moet worden gereageerd.
In de aanloop naar de AI Safety Summit in het Verenigd Koninkrijk, die op 1 en 2 november plaatsvindt, stelde Hassabis dat de wereld haar reactie op de uitdagingen van AI niet mag uitstellen.
"We moeten de risico's van AI net zo serieus nemen als andere grote mondiale uitdagingen, zoals klimaatverandering," verklaarde Hassabis.
"De internationale gemeenschap heeft er te lang over gedaan om een effectieve mondiale reactie hierop te coördineren, en we leven nu met de gevolgen daarvan. We kunnen ons niet dezelfde vertraging veroorloven met AI."
Hassabis verwijst naar het Intergovernmental Panel on Climate Change (IPCC).
Hij en anderen hebben gepleit voor een onafhankelijke internationale regelgevende raad voor AI, vergelijkbaar met het IPCC of de Internationale Organisatie voor Atoomenergie (IAEA) opgericht in 1957.
In 1955 zei commissaris Willard F. Libby over kernenergie: "Ons grote gevaar is dat dit grote voordeel voor de mensheid zal worden gedood door onnodige regelgeving".
Nadat de IAEA was opgericht, waren er relatief weinig nucleaire rampen tot Tsjernobyl. We weten nog niet hoe een 'AI-ramp' eruit zou kunnen zien.
De voordelen en risico's van AI afwegen
Hassabis erkende het transformerende potentieel van AI op gebieden als geneeskunde en wetenschap, maar benadrukte ook de existentiële bedreigingen die de technologie met zich meebrengt, met name de ontwikkeling van superintelligente systemen - of kunstmatige algemene intelligentie (AGI).
"Ik denk dat we moeten beginnen met iets als het IPCC, waar het een wetenschappelijke en onderzoeksovereenkomst is met rapporten, en van daaruit verder moeten bouwen," adviseerde Hassabis.
"Wat ik uiteindelijk zou willen zien is een equivalent van een Cern voor AI-veiligheid dat daar onderzoek naar doet - maar dan internationaal. En dan is er misschien ooit een soort equivalent van de IAEA, die deze dingen daadwerkelijk controleert."
DeepMind heeft talrijke werken gepubliceerd over AI-veiligheid, waaronder een technische blog in samenwerking met verschillende universiteiten waarin staat dat modellen geëvalueerd moeten worden op "extreme risico's" voordat er getraind wordt.
DeepMind heeft ook experimenteel bewijs gevonden dat AI op zoek gaat naar nieuwe doelen die onvoorspelbaar afwijken van de bedoelingen van de ontwikkelaars - of 'rogue' gaan.
Hassabis en vertegenwoordigers van andere grote AI-bedrijven zoals OpenAI zullen aanwezig zijn op de AI Safety Summit in november. De Britse overheid heeft het schema vrijgegeven voor de eerste dag van het evenement.