O governo do Reino Unido quer ver o interior da "caixa negra" da IA

29 de setembro de 2023

Cimeira de Segurança da IA

O Reino Unido está a negociar com as principais empresas tecnológicas, incluindo a OpenAI e a DeepMind, com o objetivo de obter informações mais aprofundadas sobre a segurança das suas tecnologias de IA. 

Enquanto o Reino Unido se prepara para a Cimeira de Segurança da IAEm novembro de 2009, o governo manifestou o seu desejo de investigar os modelos de IA e ver o interior da "caixa negra". Fontes a par das negociações revelam que os representantes estão a procurar ativamente autorização para investigar o funcionamento interno dos modelos avançados de IA.

Os principais criadores de IA são notoriamente cautelosos quanto à partilha dessas informações - poderão revelar involuntariamente pormenores confidenciais de produtos ou provas de dados de formação protegidos por direitos de autor?

O governo do Reino Unido argumenta que compreender como funcionam os modelos avançados de IA permitirá às autoridades detetar perigos de forma preventiva, mas não explicou exatamente o que pretende saber. Existem muitos modelos de IA de código aberto que funcionam de forma semelhante a IAs proprietárias como o ChatGPT. 

Nos EUA, vários dos principais criadores de IA inscreveram-se num quadro voluntário que implicaria que os seus modelos fossem testados de forma independente antes do lançamento - algo que já acontece na China.

No início de junho, um acordo preliminar permitiu que a DeepMind, a OpenAI e a Anthropic concedessem acesso ao modelo ao governo do Reino Unido para investigação e avaliações de segurança. No entanto, as especificidades deste acesso permanecem indefinidas. 

Numa declaração, a Anthropic mencionou que estava a explorar a possibilidade de fornecer o modelo através de uma API (Interface de Programação de Aplicações) para equilibrar as preocupações de ambas as partes.

Embora uma API forneça um vislumbre limitado das operações do modelo, o governo do Reino Unido está a fazer lobby para uma compreensão "mais profunda", de acordo com pessoas que informaram o Financial Times

Os membros da DeepMind concordaram que o acesso a modelos para investigação sobre segurança seria útil, mas a OpenAI não comentou.

Uma fonte próxima do governo explicou: "Estas empresas não estão a ser obstrutivas, mas trata-se geralmente de uma questão complicada e têm preocupações razoáveis". Trata-se de questões de investigação em aberto e não resolvidas". 

A Cimeira de Segurança da IA do Reino Unido, a realizar no início de novembro, é uma resposta direta aos apelos para uma regulamentação mais rigorosa da IA. Espera-se a participação de uma série de partes interessadas, nomeadamente funcionários chineses. 

De acordo com fontes internas, o governo britânico está a trabalhar para finalizar um acordo que será apresentado na cimeira.

Junte-se ao futuro


SUBSCREVER HOJE

Claro, conciso e abrangente. Fique a par dos desenvolvimentos da IA com DailyAI

Calças de ganga Sam

Sam é um escritor de ciência e tecnologia que trabalhou em várias startups de IA. Quando não está a escrever, pode ser encontrado a ler revistas médicas ou a vasculhar caixas de discos de vinil.

×

PDF GRATUITO EXCLUSIVO
Fique à frente com o DailyAI

Subscreva a nossa newsletter semanal e receba acesso exclusivo ao último livro eletrónico do DailyAI: 'Mastering AI Tools: Seu guia 2024 para aumentar a produtividade'.

*Ao subscrever a nossa newsletter, aceita a nossa Política de privacidade e o nosso Termos e condições