Empresas tecnológicas de todo o mundo comprometem-se a adotar um novo conjunto de regras voluntárias

21 de maio de 2024

  • 16 empresas internacionais de tecnologia implementaram um novo quadro de segurança
  • Isto acontece quando investigadores eminentes alertam para os potenciais "riscos extremos" da IA
  • Na Cimeira de Segurança da IA de Seul, 10 países criaram uma rede de segurança da IA
Segurança da IA

As principais empresas de IA concordaram com um novo conjunto de compromissos voluntários de segurança, anunciados pelos governos do Reino Unido e da Coreia do Sul antes de uma cimeira de dois dias sobre IA em Seul.

16 empresas tecnológicas optaram por aderir ao quadro, incluindo Amazon, Google, Meta, Microsoft, OpenAI, xAI, e Zhipu AI.

É o primeiro quadro acordado por empresas da América do Norte, Europa, Médio Oriente (The Technology Innovation Institute) e Ásia, incluindo a China (Zhipu AI). 

Entre os compromissos assumidos, as empresas comprometem-se a "não desenvolver ou implementar um modelo" se não for possível gerir os riscos graves.

As empresas também concordaram em publicar a forma como irão medir e mitigar os riscos associados aos modelos de IA.

O novos compromissos surge depois de eminentes investigadores de IA, incluindo Yoshua Bengio, Geoffrey Hinton, Andrew Yao e Yuval Noah Harari, terem publicado um papel em Ciência nomeado Gerir os riscos extremos da IA num contexto de progresso rápido.

Esse documento apresentava várias recomendações que ajudaram a orientar o novo quadro de segurança:

  • Controlo e honestidade: Desenvolvimento de métodos para garantir que os sistemas de IA sejam transparentes e produzam resultados fiáveis.
  • Robustez: Garantir que os sistemas de IA se comportam de forma previsível em novas situações.
  • Interpretabilidade e transparência: Compreender os processos de decisão da IA.
  • Desenvolvimento inclusivo da IA: Atenuação de preconceitos e integração de valores diversos.
  • Avaliação de acções perigosas: Desenvolvimento de métodos rigorosos para avaliar as capacidades da IA e prever os riscos antes da implantação.
  • Avaliar o alinhamento da IA: Assegurar que os sistemas de IA estão em conformidade com os objectivos pretendidos e não perseguem objectivos prejudiciais.
  • Avaliações de risco: Avaliar exaustivamente os riscos societais associados à implantação da IA.
  • Resiliência: Criação de defesas contra ameaças baseadas na IA, como os ciberataques e a manipulação social.

Anna Makanju, vice-presidente de assuntos globais da OpenAIA Comissão Europeia, em colaboração com a Universidade de Lisboa, declarou sobre as novas recomendações: "O campo da segurança da IA está a evoluir rapidamente e estamos particularmente satisfeitos por apoiar a ênfase dos compromissos em refinar as abordagens juntamente com a ciência. Continuamos comprometidos em colaborar com outros laboratórios de pesquisa, empresas e governos para garantir que a IA seja segura e beneficie toda a humanidade.

Michael Sellitto, Diretor dos Assuntos Globais da AnthropicA Frontier AI, Inc., comentou da mesma forma: "Os compromissos de segurança da Frontier AI sublinham a importância do desenvolvimento seguro e responsável de modelos de fronteira. Como uma organização focada na segurança, tornamos uma prioridade implementar políticas rigorosas, conduzir uma extensa equipe vermelha e colaborar com especialistas externos para garantir que nossos modelos sejam seguros. Estes compromissos são um importante passo em frente para incentivar o desenvolvimento e a implementação responsáveis da IA".

Outro quadro voluntário

Isto reflecte os "compromissos voluntários" assumidos na Casa Branca em julho do ano passado por Amazon, Anthropic, Google, Inflection AI, Meta, Microsoft, e OpenAI para incentivar o desenvolvimento seguro, protegido e transparente da tecnologia de IA. 

Estas novas regras estipulam que as 16 empresas devem "proporcionar transparência pública" sobre as suas implementações de segurança, exceto nos casos em que tal possa aumentar os riscos ou divulgar informações comerciais sensíveis de forma desproporcionada em relação aos benefícios para a sociedade.

O Primeiro-Ministro do Reino Unido, Rishi Sunak, afirmou: "É uma estreia mundial ter tantas empresas líderes de IA de tantas partes diferentes do mundo a concordar com os mesmos compromissos em matéria de segurança da IA". 

Trata-se de uma novidade mundial, uma vez que empresas de fora da Europa e da América do Norte, como a chinesa Zhipu.ai, juntei-me a ele. 

No entanto, os compromissos voluntários em matéria de segurança da IA estão em voga há já algum tempo.

Há pouco risco de as empresas de IA concordarem com elas, uma vez que não há meios para as fazer cumprir. Este facto indica também que são um instrumento muito pouco eficaz quando se trata de fazer valer os seus direitos. 

Dan Hendrycks, conselheiro de segurança da empresa xAI de Elon Musk, referiu que os compromissos voluntários ajudariam a "lançar as bases para uma regulamentação nacional concreta".

É um comentário justo, mas, segundo alguns investigadores de renome, ainda não lançámos as bases quando os riscos extremos nos batem à porta. 

Nem toda a gente está de acordo quão perigosa é realmente a IAmas a questão é que o sentimento subjacente a estes quadros ainda não está alinhado com as acções. 

Nações formam rede de segurança da IA

Com o início desta pequena cimeira sobre segurança da IA em Seul, na Coreia do Sul, dez países e a União Europeia (UE) concordaram em criar uma rede internacional de "institutos de segurança da IA" apoiados pelo Estado.

O "Declaração de intenções de Seul para a cooperação internacional no domínio da ciência da segurança da IA"O acordo envolve países como o Reino Unido, os Estados Unidos, a Austrália, o Canadá, a França, a Alemanha, a Itália, o Japão, a Coreia do Sul, Singapura e a UE. 

A China esteve notoriamente ausente do acordo. No entanto, o governo chinês participou e a empresa chinesa Zhipu.ai subscreveu o quadro acima descrito. 

A China já manifestou anteriormente a sua vontade de cooperar no domínio da segurança da IA e tem estado em conversações "secretas" com o US.

Este cimeira intercalar de menor dimensão foi realizada com menos fanfarra do que a primeira, que teve lugar em Bletchley Park, no Reino Unido, em novembro passado. 

No entanto, várias figuras conhecidas do sector tecnológico aderiram, incluindo Elon Musk, o antigo diretor executivo da Google, Eric Schmidt, e DeepMind fundador Sir Demis Hassabis.

Nos próximos dias, serão revelados mais compromissos e discussões.

Junte-se ao futuro


SUBSCREVER HOJE

Claro, conciso e abrangente. Fique a par dos desenvolvimentos da IA com DailyAI

Calças de ganga Sam

Sam é um escritor de ciência e tecnologia que trabalhou em várias startups de IA. Quando não está a escrever, pode ser encontrado a ler revistas médicas ou a vasculhar caixas de discos de vinil.

×

PDF GRATUITO EXCLUSIVO
Fique à frente com o DailyAI

Subscreva a nossa newsletter semanal e receba acesso exclusivo ao último livro eletrónico do DailyAI: 'Mastering AI Tools: Seu guia 2024 para aumentar a produtividade'.

*Ao subscrever a nossa newsletter, aceita a nossa Política de privacidade e o nosso Termos e condições