A UE chegou a um acordo sobre a Lei da IA, que provavelmente entrará em vigor em 2024 ou 2025, como previsto.
Esta decisão histórica resultou de uma intensa sessão de negociação de 37 horas que envolveu o Parlamento Europeu e os Estados-Membros da UE.
Thierry Breton, o Comissário Europeu responsável por este novo conjunto de leis, descreveu o acordo como "histórico". As conversações estão a decorrer desde terça-feira, incluindo alguns dias em que os negociadores trabalharam durante a noite.
Histórico!
A UE torna-se o primeiro continente a definir regras claras para a utilização da IA 🇪🇺
O #AIAct é muito mais do que um manual de regras - é uma plataforma de lançamento para as empresas e os investigadores da UE liderarem a corrida mundial à IA.
O melhor ainda está para vir! 👍 pic.twitter.com/W9rths31MU
- Thierry Breton (@ThierryBreton) 8 de dezembro de 2023
Carme Artigas, Secretária de Estado espanhola para a IA, foi crucial na condução destas negociações para uma conclusão bem sucedida.
Artigas salientou o apoio significativo que o texto recebeu dos principais países europeus, afirmando especificamente que "a França e a Alemanha apoiaram o texto". Este facto é notável, uma vez que a França e a Alemanha, desejosas de encorajar as suas próprias indústrias de IA em crescimento, questionavam alguns dos elementos mais rigorosos da lei.
A UE está agora a liderar o caminho para a regulamentação da IA. Embora o conteúdo e as implicações específicas das novas leis ainda estejam a surgir, é provável que entrem em vigor em 2024/2025.
Principais acordos e aspectos da Lei da IA da UE
O acordo provisório sobre a Lei da IA representa um passo histórico na regulamentação da IA. Segue as pisadas de outros regulamentos tecnológicos da UE, como o RGPD, que sujeitou as empresas tecnológicas a milhares de milhões de multas ao longo dos anos.
Carme Artigas, Secretária de Estado espanhola para a Digitalização e Inteligência Artificial, afirmou sobre a lei: "Trata-se de um feito histórico e de um enorme marco em direção ao futuro! O acordo de hoje responde efetivamente a um desafio global num ambiente tecnológico em rápida evolução numa área fundamental para o futuro das nossas sociedades e economias. E, neste esforço, conseguimos manter um equilíbrio extremamente delicado: impulsionar a inovação e a adoção da inteligência artificial em toda a Europa, respeitando plenamente os direitos fundamentais dos nossos cidadãos".
Aqui estão os novos aspectos fundamentais da legislação acordada:
- Sistemas de IA de elevado impacto e de elevado risco: O acordo introduz regras sobre modelos de IA de uso geral que podem representar riscos "sistémicos". O seu significado exato continua a ser ambíguo, mas foi concebido para abranger as novas gerações de modelos a partir do nível GPT-4.
- Governação e aplicação: Foi estabelecido um sistema de governação revisto, incluindo alguns poderes de execução a nível da UE. Isto assegura uma abordagem centralizada da regulamentação da IA nos Estados-Membros.
- Proibições e excepções à aplicação da lei: O acordo alarga a lista de práticas de IA proibidas, mas permite a utilização da identificação biométrica à distância pelas autoridades policiais em espaços públicos, em condições estritas. O objetivo é equilibrar a segurança pública com a privacidade e as liberdades civis.
- Proteção dos direitos: Um aspeto fundamental do acordo é a obrigação de os implantadores de sistemas de IA de alto risco avaliarem os impactos nos direitos das pessoas antes de utilizarem um sistema de IA. A palavra-chave aqui é "implementadores", uma vez que o ato obriga a responsabilidades em toda a cadeia de valor da IA.
Outros domínios acordados incluem:
- Definições e âmbito de aplicação: A definição de sistemas de IA foi alinhada com a Definição da OCDEe o regulamento exclui os sistemas de IA utilizados exclusivamente para fins militares, de defesa, de investigação e inovação ou por indivíduos por razões não profissionais.
- Classificação dos sistemas de IA: Os sistemas de IA serão classificados com base no risco, com os sistemas de alto risco sujeitos a requisitos rigorosos e obrigações de transparência mais leves para os sistemas com risco limitado. Esta tem sido a intenção desde o início.
- Modelos de fundações: O acordo aborda os modelos de base, grandes sistemas de IA capazes de realizar várias tarefas, como o ChatGPT/Bard/Claude 2. São estabelecidas obrigações de transparência específicas para estes modelos, com regulamentos mais rigorosos para os modelos de base de elevado impacto.
- Requisitos de sistemas de IA de alto risco: Os sistemas de IA de alto risco serão autorizados no mercado da UE, mas devem cumprir requisitos específicos, incluindo a qualidade dos dados e a documentação técnica, especialmente para as PME.
- Responsabilidades nas cadeias de valor da IA: O acordo clarifica os papéis e as responsabilidades dos diferentes intervenientes nas cadeias de valor dos sistemas de IA, incluindo fornecedores e utilizadores, e a forma como estes se relacionam com a legislação da UE em vigor.
- Práticas de IA proibidas: A lei proíbe certas práticas inaceitáveis de IA, como a manipulação do comportamento cognitivo, a recolha não direccionada de imagens faciais e o reconhecimento de emoções nos locais de trabalho e nas instituições de ensino.
- Procedimentos de emergência para a aplicação da lei: Um procedimento de emergência permite que os serviços responsáveis pela aplicação da lei utilizem ferramentas de IA de alto risco que não tenham passado na avaliação de conformidade em situações urgentes.
- Identificação biométrica em tempo real: A utilização pelas autoridades policiais de sistemas de identificação biométrica à distância em tempo real em espaços públicos é permitida em condições estritas para fins específicos, como a prevenção de ataques terroristas ou a procura de suspeitos de crimes graves.
Governação, sanções e aplicação:
- Governação: Um Gabinete de IA no seio da Comissão supervisionará os modelos avançados de IA, apoiado por um painel científico de peritos independentes e pelo Comité de IA, composto por representantes dos Estados-Membros.
- Sanções: O acordo estabelece coimas com base numa percentagem do volume de negócios anual global da empresa para várias infracções, com limites mais proporcionais para as PME e as empresas em fase de arranque.
- Coimas: As sanções por incumprimento foram estabelecidas com base na gravidade da infração. As coimas são calculadas como uma percentagem do volume de negócios anual global da empresa do ano fiscal anterior ou como um montante fixo. É aplicada a mais elevada das duas. As coimas estão estruturadas da seguinte forma: 35 milhões de euros ou 7% do volume de negócios por violações que envolvam aplicações de IA proibidas, 15 milhões de euros ou 3% por violações das obrigações previstas na lei e 7,5 milhões de euros ou 1,5% por prestação de informações incorrectas.
- Apoio: O acordo inclui caixas de areia regulamentares de IA para testar sistemas inovadores de IA em condições reais e presta apoio a empresas mais pequenas.
Este acordo provisório requer ainda a aprovação do Parlamento Europeu e dos 27 Estados-Membros da UE.
Como é que a legislação irá afetar os "modelos de fronteira"?
De acordo com os novos regulamentos, todos os criadores de sistemas de IA de utilização geral, em especial os que têm uma vasta gama de potenciais aplicações, como o ChatGPT e o Bard, devem manter informações actualizadas sobre a forma como os seus modelos são treinados, fornecer um resumo detalhado dos dados utilizados no treino e ter políticas que respeitem as leis de direitos de autor e garantam uma utilização aceitável.
A lei também classifica certos modelos como representando um "risco sistémico". Esta avaliação baseia-se essencialmente na capacidade de cálculo destes modelos. A UE estabeleceu como limiar para esta categoria os modelos que utilizam mais de 10 biliões de biliões de operações por segundo.
Atualmente, o GPT-4 da OpenAI é o único modelo que cumpre automaticamente este limiar. No entanto, a UE poderia rotular outros modelos ao abrigo desta definição.
Os modelos considerados de risco sistémico serão sujeitos a regras adicionais e mais rigorosas. Estas incluem:
- Comunicação obrigatória do consumo de energia.
- Realização de testes de equipa vermelha ou adversários.
- Avaliar e mitigar potenciais riscos sistémicos.
- Garantir controlos sólidos da cibersegurança.
- Comunicar tanto as informações utilizadas para afinar o modelo como os pormenores sobre a arquitetura do sistema.
Como é que o acordo foi recebido?
O AI Act suscitou uma miríade de reacções que comentam a sua inovação, regulamentação e impacto social.
Fritz-Ulli Pieper, especialista em direito informático da Taylor Wessing, salientou que, embora o fim esteja à vista, a lei ainda é suscetível de ser alterada.
Muitos pontos ainda têm de ser trabalhados no trílogo técnico. Ninguém sabe como será a redação final e se, ou como, se pode realmente promover o atual acordo num texto legislativo final".
As observações de Pieper revelam a complexidade e a incerteza que rodeiam a Lei da IA, sugerindo que ainda há muito trabalho a fazer para garantir que a legislação final seja eficaz e prática.
Um dos principais temas destas reuniões tem sido o equilíbrio entre os riscos e as oportunidades da IA, especialmente porque os modelos podem ter uma "natureza dupla", ou seja, podem trazer benefícios e causar danos. Alexandra van Huffelen, Ministra da Digitalização dos Países Baixos, observou: "Lidar com a IA significa distribuir de forma justa as oportunidades e os riscos".
A lei também parece não proteger os cidadãos da UE da vigilância em larga escala, o que chamou a atenção de grupos de defesa como a Amnistia Internacional.
Não garantir a proibição total do reconhecimento facial é, por isso, uma oportunidade perdida de travar e evitar danos colossais aos direitos humanos, ao espaço cívico e ao Estado de direito, que já estão ameaçados em toda a UE", afirmou Mher Hakobyan, conselheiro para a defesa da inteligência artificial.
Na sequência deste acordo provisório, a Lei da IA deverá tornar-se aplicável dois anos após a sua promulgação oficial, permitindo que os governos e as empresas de toda a UE se preparem para cumprir as suas disposições.
Entretanto, os funcionários negociarão os pormenores técnicos do regulamento. Quando os pormenores técnicos estiverem concluídos, o texto de compromisso será apresentado aos representantes dos Estados-Membros para aprovação.
A etapa final envolve uma revisão jurídico-linguística para garantir a clareza e a exatidão jurídica, seguida da adoção formal. A Lei da IA irá certamente mudar o sector, tanto na UE como a nível mundial, mas é difícil prever a sua extensão.