Demis Hassabis, Diretor Executivo da Google DeepMind, defendeu que os riscos da IA devem ser levados tão a sério como a crise climática e que a resposta deve ser imediata.
Falando antes da Cimeira de Segurança da IA do Reino Unido, que terá lugar a 1 e 2 de novembro, Hassabis afirmou que o mundo não deve atrasar a sua resposta aos desafios colocados pela IA.
"Temos de levar os riscos da IA tão a sério como outros grandes desafios globais, como as alterações climáticas", afirmou Hassabis.
"A comunidade internacional demorou demasiado tempo a coordenar uma resposta global eficaz a esta situação e estamos a viver com as consequências disso agora. Não nos podemos dar ao luxo de sofrer o mesmo atraso com a IA".
Hassabis está a referir-se ao Painel Intergovernamental sobre as Alterações Climáticas (IPCC).
Ele e outros defenderam a criação de um conselho regulador internacional independente para a IA, semelhante ao IPCC ou à Agência Internacional da Energia Atómica (AIEA) criada em 1957.
Em 1955, o Comissário Willard F. Libby referiu-se à energia nuclear: "O nosso grande risco é que este grande benefício para a humanidade seja morto por regulamentação desnecessária".
Após a criação da AIEA, registaram-se relativamente poucos desastres nucleares até Chernobyl. Ainda não sabemos o que poderá ser um "desastre de IA".
Equilíbrio entre os benefícios e os riscos da IA
Embora reconhecendo o potencial transformador da IA em domínios como a medicina e a ciência, Hassabis salientou também as ameaças existenciais colocadas pela tecnologia, especialmente o desenvolvimento de sistemas superinteligentes - ou inteligência artificial geral (AGI).
"Penso que temos de começar por algo como o IPCC, que é um acordo científico e de investigação com relatórios, e depois partir daí", aconselhou Hassabis.
"Depois, gostaria de ver um equivalente do Cern para a segurança da IA, que fizesse investigação sobre o assunto, mas a nível internacional. E talvez um dia haja uma espécie de equivalente da AIEA, que faz auditorias a estas coisas."
A DeepMind publicou numerosos trabalhos sobre a segurança da IA, incluindo um blogue técnico em colaboração com várias universidades, que especifica que os modelos devem ser avaliados em termos de "riscos extremos" antes de se efetuar qualquer formação.
A DeepMind também estabeleceu provas experimentais de que a IA procura novos objectivos emergentes que, de forma imprevisível, divergem das intenções dos seus criadores - ou que se tornam "desonestos".
A Hassabis e representantes de outras grandes empresas de IA, como a OpenAI, participarão na Cimeira sobre Segurança da IA, em novembro. O governo do Reino Unido divulgou o calendário para o primeiro dia do evento.