O diretor executivo da DeepMind faz uma comparação entre os riscos da IA e a crise climática

24 de outubro de 2023

IA da DeepMind

Demis Hassabis, Diretor Executivo da Google DeepMind, defendeu que os riscos da IA devem ser levados tão a sério como a crise climática e que a resposta deve ser imediata.

Falando antes da Cimeira de Segurança da IA do Reino Unido, que terá lugar a 1 e 2 de novembro, Hassabis afirmou que o mundo não deve atrasar a sua resposta aos desafios colocados pela IA. 

"Temos de levar os riscos da IA tão a sério como outros grandes desafios globais, como as alterações climáticas", afirmou Hassabis. 

 "A comunidade internacional demorou demasiado tempo a coordenar uma resposta global eficaz a esta situação e estamos a viver com as consequências disso agora. Não nos podemos dar ao luxo de sofrer o mesmo atraso com a IA".

Hassabis está a referir-se ao Painel Intergovernamental sobre as Alterações Climáticas (IPCC). 

Ele e outros defenderam a criação de um conselho regulador internacional independente para a IA, semelhante ao IPCC ou à Agência Internacional da Energia Atómica (AIEA) criada em 1957.

Em 1955, o Comissário Willard F. Libby referiu-se à energia nuclear: "O nosso grande risco é que este grande benefício para a humanidade seja morto por regulamentação desnecessária".

Após a criação da AIEA, registaram-se relativamente poucos desastres nucleares até Chernobyl. Ainda não sabemos o que poderá ser um "desastre de IA". 

Equilíbrio entre os benefícios e os riscos da IA

Embora reconhecendo o potencial transformador da IA em domínios como a medicina e a ciência, Hassabis salientou também as ameaças existenciais colocadas pela tecnologia, especialmente o desenvolvimento de sistemas superinteligentes - ou inteligência artificial geral (AGI). 

"Penso que temos de começar por algo como o IPCC, que é um acordo científico e de investigação com relatórios, e depois partir daí", aconselhou Hassabis. 

"Depois, gostaria de ver um equivalente do Cern para a segurança da IA, que fizesse investigação sobre o assunto, mas a nível internacional. E talvez um dia haja uma espécie de equivalente da AIEA, que faz auditorias a estas coisas."

A DeepMind publicou numerosos trabalhos sobre a segurança da IA, incluindo um blogue técnico em colaboração com várias universidades, que especifica que os modelos devem ser avaliados em termos de "riscos extremos" antes de se efetuar qualquer formação. 

A DeepMind também estabeleceu provas experimentais de que a IA procura novos objectivos emergentes que, de forma imprevisível, divergem das intenções dos seus criadores - ou que se tornam "desonestos".

A Hassabis e representantes de outras grandes empresas de IA, como a OpenAI, participarão na Cimeira sobre Segurança da IA, em novembro. O governo do Reino Unido divulgou o calendário para o primeiro dia do evento.

Junte-se ao futuro


SUBSCREVER HOJE

Claro, conciso e abrangente. Fique a par dos desenvolvimentos da IA com DailyAI

Calças de ganga Sam

Sam é um escritor de ciência e tecnologia que trabalhou em várias startups de IA. Quando não está a escrever, pode ser encontrado a ler revistas médicas ou a vasculhar caixas de discos de vinil.

×

PDF GRATUITO EXCLUSIVO
Fique à frente com o DailyAI

Subscreva a nossa newsletter semanal e receba acesso exclusivo ao último livro eletrónico do DailyAI: 'Mastering AI Tools: Seu guia 2024 para aumentar a produtividade'.

*Ao subscrever a nossa newsletter, aceita a nossa Política de privacidade e o nosso Termos e condições