A Comissão Europeia deu início ao seu projeto de desenvolvimento do primeiro Código de Práticas de IA para fins gerais, que está estreitamente ligado à Lei da IA da UE recentemente aprovada.
O Código tem como objetivo estabelecer algumas regras básicas claras para modelos de IA como o ChatGPT e o Google Gemini, especialmente no que diz respeito a questões como a transparência, os direitos de autor e a gestão dos riscos que estes sistemas poderosos representam.
Numa recente sessão plenária em linha, cerca de 1000 peritos do mundo académico, da indústria e da sociedade civil reuniram-se para ajudar a definir o que será este Código.
O processo está a ser conduzido por um grupo de 13 peritos internacionais, incluindo Yoshua Bengio, um dos "padrinhos" da IA, que está a liderar o grupo que se centra nos riscos técnicos. Bengio ganhou o Prémio Turing, que é efetivamente o Prémio Nobel da computação, pelo que as suas opiniões têm um peso merecido.
As opiniões pessimistas de Bengio sobre o risco catastrófico que a poderosa IA representa para a humanidade, sugere a direção que a equipa que dirige irá tomar.
Estes grupos de trabalho reunir-se-ão regularmente para redigir o Código, estando a versão final prevista para abril de 2025. Uma vez finalizado, o Código terá um grande impacto em qualquer empresa que pretenda implementar os seus produtos de IA na UE.
O EU AI Act estabelece um quadro regulamentar rigoroso para os fornecedores de IA, mas o Código de Práticas será o guia prático que as empresas terão de seguir. O Código tratará de questões como tornar os sistemas de IA mais transparentes, garantir que cumprem as leis de direitos de autor e estabelecer medidas para gerir os riscos associados à IA.
As equipas que redigem o Código terão de equilibrar a forma como a IA é desenvolvida de forma responsável e segura, sem sufocar a inovação, algo pelo qual a UE já está a ser criticada. Os modelos e funcionalidades de IA mais recentes da Meta, da Apple e da OpenAI são não está a ser plenamente implantado na UE devido às já rigorosas leis de privacidade do RGPD.
As implicações são enormes. Se for bem aplicado, este Código poderá estabelecer normas globais para a segurança e a ética da IA, conferindo à UE um papel de liderança na regulamentação da IA. Mas se o Código for demasiado restritivo ou pouco claro, poderá abrandar o desenvolvimento da IA na Europa, empurrando os inovadores para outras paragens.
Embora a UE gostasse, sem dúvida, que o seu código fosse adotado a nível mundial, tal é improvável, uma vez que a China e os EUA parecem ser mais favoráveis ao desenvolvimento do que avessos ao risco. O veto ao projeto de lei SB 1047 da Califórnia sobre segurança da IA é um bom exemplo das diferentes abordagens à regulamentação da IA.
É improvável que a IAG surja da indústria tecnológica da UE, mas também é menos provável que a UE seja o ponto de partida para qualquer potencial catástrofe provocada pela IA.