Discussões entre os EUA e a UE promovem uma "paragem" temporária da IA antes de os regulamentos se tornarem vinculativos

1 de junho de 2023

IA UE-EUA

O crescimento exponencial dos sistemas de IA está a ultrapassar a investigação e a regulamentação, deixando os governos numa posição difícil para equilibrar as vantagens e os riscos. 

As leis levam anos a desenvolver-se e a tornar-se juridicamente vinculativas. A IA evolui numa base semanal. 

É esta a dicotomia com que se defrontam os líderes e políticos da IA, com a primeira peça de regulamentação significativa da IA no Ocidente, a Lei da IA da UE, prevista para 2026. Ainda há um ano, o ChatGPT era apenas um sussurro.

Altos funcionários dos EUA e da UE reuniram-se no Conselho de Comércio e Tecnologia (TTC) EUA-UE em 31 de maio em Luleå, na Suécia. Margrethe Vestager, Comissária Europeia para o Digital, que se reuniu com Sundar Pichai, Diretor Executivo da Google, na semana anterior para discutir um potencial "Pacto para a IA", afirmou: "A democracia tem de mostrar que somos tão rápidos como a tecnologia".

As autoridades reconhecem a enorme diferença entre o ritmo da tecnologia e o ritmo da legislação. Referindo-se à IA generativa como o ChatGPT, Gina Raimondo, a secretária do Comércio dos EUA, disse: "Está a chegar a um ritmo como nenhuma outra tecnologia". 

Quais foram os resultados da reunião do TTC?

Os participantes debateram sobretudo quadros não vinculativos ou voluntários em matéria de risco e transparência, que serão apresentados ao G7 no outono. 

A UE, que tem uma abordagem direta da legislação digital, opta por uma abordagem faseada da regulamentação da IA, em que as IA são classificadas em categorias com base no risco. 

Isto inclui um escalão proibido de "risco inaceitável" e um escalão de "alto risco", que os patrões da tecnologia, como o diretor executivo da OpenAI, Sam Altman, receiam que comprometa a funcionalidade dos seus produtos. 

Risco de IA
Níveis de risco do AI Act da UE: Fonte: UE.

Os EUA não estão a propor regulamentos tão definitivos, favorecer regras voluntárias.

Serão necessárias muitas mais reuniões entre a UE, os EUA e as grandes empresas de tecnologia para alinhar os pontos de vista com acções práticas significativas. 

As regras voluntárias da IA funcionarão?

Há muitos exemplos de regras voluntárias noutros sectores e indústrias, como os quadros voluntários de segurança dos dados e as divulgações ESG, mas nenhum está tão próximo da vanguarda como um quadro voluntário de governação da IA. 

Afinal de contas, estamos perante uma ameaça de extinção, de acordo com os principais líderes tecnológicos e académicos que assinaram o Declaração do Center for AI Safety sobre o risco da IA esta semana.

Grandes empresas como a OpenAI e a Google já têm departamentos centrais dedicados à governação e a questões de conformidade interna, pelo que alinhar os seus produtos e serviços com quadros voluntários pode ser uma questão de reescrever documentos de política interna. 

As regras voluntárias são melhores do que nada, mas com numerosas propostas em cima da mesa, os políticos e os líderes da IA terão de escolher algo com que se candidatar, mais cedo ou mais tarde.

Junte-se ao futuro


SUBSCREVER HOJE

Claro, conciso e abrangente. Fique a par dos desenvolvimentos da IA com DailyAI

Calças de ganga Sam

Sam é um escritor de ciência e tecnologia que trabalhou em várias startups de IA. Quando não está a escrever, pode ser encontrado a ler revistas médicas ou a vasculhar caixas de discos de vinil.

×

PDF GRATUITO EXCLUSIVO
Fique à frente com o DailyAI

Subscreva a nossa newsletter semanal e receba acesso exclusivo ao último livro eletrónico do DailyAI: 'Mastering AI Tools: Seu guia 2024 para aumentar a produtividade'.

*Ao subscrever a nossa newsletter, aceita a nossa Política de privacidade e o nosso Termos e condições