Mais empresas de IA aderem ao quadro voluntário dos EUA sobre IA

12 de setembro de 2023

IA Casa Branca

A administração Biden recrutou mais oito empresas de IA para o seu quadro de segurança voluntário. 

A Google, a Anthropic, a Microsoft, a Amazon, a OpenAI, a Meta e a Inflection aderiram ao quadro voluntário da Casa Branca para o desenvolvimento e a implementação éticos da IA no final de julho.

Esta semana, a Casa Branca anunciou que a Adobe, a IBM, a Nvidia, a Salesforce, a Cohere, a Scale AI, a Palantir e a Stability se tinham juntado a eles. 

O quadro de Biden incentiva as empresas a partilharem protocolos de segurança e medidas de proteção, a divulgarem as capacidades e limitações das suas tecnologias de IA e a utilizarem a IA para "ajudar a enfrentar os maiores desafios da sociedade". 

Este compromisso suscita dúvidas, uma vez que algumas empresas participantes - nomeadamente a Palantir - são conhecidas pelas suas aplicações militares de IA e tecnologias de vigilância doméstica. A empresa é conhecida pelas suas relações globais com vários governos e organizações militares. 

Alex Karp, Diretor Executivo da Palantir recentemente encorajado os Estados Unidos a tirar partido da IA para o armamento e a tecnologia militar, e a Força Aérea já efectuou voos de ensaio com êxito com um jato controlado por IA. 

Karp, falando em uma cúpula de fevereiro sobre tecnologia militar de IA, indicou que a empresa está fornecendo análises de dados para aplicações de campo de batalha para os militares ucranianos. Apesar disso, Karp estipulou que uma "arquitetura que permita transparência nas fontes de dados" deve ser "obrigatória por lei".

Durante uma audiência do Comité de Serviços Armados do Senado, o CTO da Palantir, Shyam Sankar, comentou que a interrupção do desenvolvimento da IA poderia comprometer a supremacia tecnológica dos EUA em relação à China. Salientou a necessidade de os EUA continuarem a investir em "capacidades que aterrorizem os nossos adversários".

Os críticos sugerem que o quadro da Casa Branca ignora considerações éticas vitais, como a transparência dos dados de treino da IA generativa, que a maioria das empresas mantém a sete chaves. 

Embora a Casa Branca tenha indicado que está a ser elaborada uma ordem executiva para "proteger os direitos e a segurança dos americanos", não foram divulgados mais pormenores.

As complexidades da ética da IA não se limitam à Palantir. Outras grandes empresas tecnológicas, como a Google e a Microsoft, têm tido a sua quota-parte de controvérsia em relação a contratos militares. 

Google uma vez liderou o Projeto MavenA Palantir, Inc., lançou uma iniciativa para utilizar a IA na vigilância por drones, mas abandonou-a após os protestos dos funcionários. Posteriormente, a Palantir terá retomado o projeto.

Atualmente, os esforços da administração Biden centram-se principalmente em recomendações não vinculativas e ordens executivas. 

Jeff Zeints, chefe de gabinete da Casa Branca disse à Reuters que a administração está a "puxar todas as alavancas que temos" para mitigar os riscos associados à IA.

Entretanto, o líder da maioria no Senado dos Estados Unidos, Chuck Schumer, está a organizar uma série de "AI Insight Forums", sendo o primeiro amanhã, 13 de setembro

O alcance do quadro voluntário da Casa Branca é alargado

De acordo com um ficha de informação do governo que abrange o quadro, os compromissos dos que aderiram até agora servem como uma "ponte importante para a ação governamental". 

As empresas concordaram em submeter os seus sistemas de IA a rigorosos testes de segurança internos e externos antes da sua divulgação pública. 

"Este teste, que será efectuado em parte por peritos independentes, protege contra algumas das fontes mais significativas de riscos de IA, como a biossegurança e a cibersegurança", declarou a Casa Branca.

Nomeadamente, as empresas também se comprometerão a partilhar informações sobre a gestão dos riscos da IA no sector e com os governos, a sociedade civil e o mundo académico.

O objetivo é criar um ambiente de colaboração para melhorar os protocolos de segurança da IA e oferecer uma plataforma de colaboração técnica para impedir as tentativas de contornar as salvaguardas.

"Ao desenvolver estes compromissos, a Administração consultou a Austrália, o Brasil, o Canadá, o Chile, a França, a Alemanha, a Índia, Israel, a Itália, o Japão, o Quénia, o México, os Países Baixos, a Nova Zelândia, a Nigéria, as Filipinas, Singapura, a Coreia do Sul, os Emirados Árabes Unidos e o Reino Unido", revelou a Casa Branca. 

Existem outras iniciativas destinadas a reforçar a resiliência dos EUA face à IA, como um concurso denominado "Desafio cibernético da IA" em colaboração com a DARPA.

A regulamentação da IA parece estar a acelerar em direção a uma massa crítica, com a UE a avançar também para a versão final da sua Lei da IA.

Junte-se ao futuro


SUBSCREVER HOJE

Claro, conciso e abrangente. Fique a par dos desenvolvimentos da IA com DailyAI

Calças de ganga Sam

Sam é um escritor de ciência e tecnologia que trabalhou em várias startups de IA. Quando não está a escrever, pode ser encontrado a ler revistas médicas ou a vasculhar caixas de discos de vinil.

×

PDF GRATUITO EXCLUSIVO
Fique à frente com o DailyAI

Subscreva a nossa newsletter semanal e receba acesso exclusivo ao último livro eletrónico do DailyAI: 'Mastering AI Tools: Seu guia 2024 para aumentar a produtividade'.

*Ao subscrever a nossa newsletter, aceita a nossa Política de privacidade e o nosso Termos e condições