UE lança código de conduta sobre IA para equilibrar inovação e segurança

1 de outubro de 2024

  • A UE lançou o seu projeto para desenvolver o primeiro Código de Práticas para modelos de IA de uso geral
  • 13 peritos mundiais lideram grupos para elaborar regras sobre transparência, riscos e direitos de autor
  • O código deve equilibrar a inovação da IA com a segurança, estando o projeto final previsto para abril de 2025
legislação da UE

A Comissão Europeia deu início ao seu projeto de desenvolvimento do primeiro Código de Práticas de IA para fins gerais, que está estreitamente ligado à Lei da IA da UE recentemente aprovada.

O Código tem como objetivo estabelecer algumas regras básicas claras para modelos de IA como o ChatGPT e o Google Gemini, especialmente no que diz respeito a questões como a transparência, os direitos de autor e a gestão dos riscos que estes sistemas poderosos representam.

Numa recente sessão plenária em linha, cerca de 1000 peritos do mundo académico, da indústria e da sociedade civil reuniram-se para ajudar a definir o que será este Código.

O processo está a ser conduzido por um grupo de 13 peritos internacionais, incluindo Yoshua Bengio, um dos "padrinhos" da IA, que está a liderar o grupo que se centra nos riscos técnicos. Bengio ganhou o Prémio Turing, que é efetivamente o Prémio Nobel da computação, pelo que as suas opiniões têm um peso merecido.

As opiniões pessimistas de Bengio sobre o risco catastrófico que a poderosa IA representa para a humanidade, sugere a direção que a equipa que dirige irá tomar.

Estes grupos de trabalho reunir-se-ão regularmente para redigir o Código, estando a versão final prevista para abril de 2025. Uma vez finalizado, o Código terá um grande impacto em qualquer empresa que pretenda implementar os seus produtos de IA na UE.

O EU AI Act estabelece um quadro regulamentar rigoroso para os fornecedores de IA, mas o Código de Práticas será o guia prático que as empresas terão de seguir. O Código tratará de questões como tornar os sistemas de IA mais transparentes, garantir que cumprem as leis de direitos de autor e estabelecer medidas para gerir os riscos associados à IA.

As equipas que redigem o Código terão de equilibrar a forma como a IA é desenvolvida de forma responsável e segura, sem sufocar a inovação, algo pelo qual a UE já está a ser criticada. Os modelos e funcionalidades de IA mais recentes da Meta, da Apple e da OpenAI são não está a ser plenamente implantado na UE devido às já rigorosas leis de privacidade do RGPD.

As implicações são enormes. Se for bem aplicado, este Código poderá estabelecer normas globais para a segurança e a ética da IA, conferindo à UE um papel de liderança na regulamentação da IA. Mas se o Código for demasiado restritivo ou pouco claro, poderá abrandar o desenvolvimento da IA na Europa, empurrando os inovadores para outras paragens.

Embora a UE gostasse, sem dúvida, que o seu código fosse adotado a nível mundial, tal é improvável, uma vez que a China e os EUA parecem ser mais favoráveis ao desenvolvimento do que avessos ao risco. O veto ao projeto de lei SB 1047 da Califórnia sobre segurança da IA é um bom exemplo das diferentes abordagens à regulamentação da IA.

É improvável que a IAG surja da indústria tecnológica da UE, mas também é menos provável que a UE seja o ponto de partida para qualquer potencial catástrofe provocada pela IA.

Junte-se ao futuro


SUBSCREVER HOJE

Claro, conciso e abrangente. Fique a par dos desenvolvimentos da IA com DailyAI

Eugene van der Watt

Eugene vem de uma formação em engenharia eletrónica e adora tudo o que é tecnologia. Quando faz uma pausa no consumo de notícias sobre IA, pode encontrá-lo à mesa de snooker.

×

PDF GRATUITO EXCLUSIVO
Fique à frente com o DailyAI

Subscreva a nossa newsletter semanal e receba acesso exclusivo ao último livro eletrónico do DailyAI: 'Mastering AI Tools: Seu guia 2024 para aumentar a produtividade'.

*Ao subscrever a nossa newsletter, aceita a nossa Política de privacidade e o nosso Termos e condições