A Lei da IA da UE entra hoje em vigor: o que precisa de saber

1 de agosto de 2024

  • A Lei da Inteligência Artificial da UE entra em vigor a 1 de agosto de 2024
  • Estabelece regras abrangentes para o desenvolvimento, a implantação e a gestão da IA
  • A grande maioria das suas regras e controlos só entrará em vigor em 2025
legislação da UE

A Lei da Inteligência Artificial (IA) da União Europeia entrou oficialmente em vigor a 1 de agosto de 2024 - um momento decisivo para a regulamentação global da IA. 

Esta legislação abrangente categoriza os sistemas de IA com base nos seus níveis de risco, impondo diferentes graus de supervisão que variam consoante a categoria de risco.

A lei proibirá completamente algumas formas de IA de "risco inaceitável", como as concebidas para manipular o comportamento das pessoas. 

Enquanto o Ato é agora lei em todos os 27 Estados-Membros da UE, a grande maioria das suas disposições não tem efeito imediato. 

Em vez disso, esta data marca o início de uma fase de preparação tanto para as entidades reguladoras como para as empresas.

No entanto, as rodas estão em movimento e a lei irá certamente moldar o futuro da forma como as tecnologias de IA são desenvolvidas, implantadas e geridas, tanto na UE como a nível internacional. 

O calendário de execução é o seguinte:

  • fevereiro de 2025: Entram em vigor as proibições de práticas de IA de "risco inaceitável". Estas incluem sistemas de pontuação social, recolha de imagens faciais não direccionadas e a utilização de tecnologia de reconhecimento de emoções em locais de trabalho e ambientes educativos.
  • agosto de 2025: Entram em vigor os requisitos para os modelos de IA de uso geral. Esta categoria, que inclui grandes modelos linguísticos como o GPT, terá de cumprir regras em matéria de transparência, segurança e atenuação dos riscos.
  • agosto de 2026: Os regulamentos para sistemas de IA de alto risco em sectores críticos como os cuidados de saúde, a educação e o emprego tornam-se obrigatórios.

A Comissão Europeia está a preparar-se para aplicar estas novas regras. 

O porta-voz da Comissão, Thomas Regnier, explicou que cerca de 60 funcionários actuais serão redireccionados para o novo Gabinete da AI e que serão contratados mais 80 funcionários externos no próximo ano.

Além disso, cada Estado-Membro da UE deve criar autoridades nacionais competentes para supervisionar e aplicar a lei até agosto de 2025.

A conformidade não acontecerá de um dia para o outro. Embora qualquer grande empresa de IA se tenha preparado para a lei durante algum tempo, os especialistas estimam que a implementação dos controlos e das práticas pode demorar seis meses ou mais.

Os riscos são elevados para as empresas apanhadas na mira da lei. As empresas que a violarem podem ser objeto de coimas até 35 milhões de euros ou 7% das suas receitas anuais globais, consoante o valor mais elevado. 

Este valor é superior ao do GPDR, e a UE não tende a fazer ameaças sem motivo, coleccionando mais de 4 mil milhões de euros das coimas do RGPD até à data. 

Impactos internacionais

Sendo a primeira regulamentação global do mundo em matéria de IA, a Lei da IA da UE estabelecerá novas normas a nível mundial. 

Grandes empresas como a Microsoft, Google, Amazon, Apple e Meta estarão entre as mais visadas pelos novos regulamentos.

Como Charlie Thompson da Appian disse à CNBCO AI Act aplicar-se-á provavelmente a qualquer organização com operações ou impacto na UE, independentemente da sua sede". 

Algumas empresas americanas estão a tomar medidas preventivas. A Meta, por exemplo, restringiu a disponibilidade dos seus Modelo de IA LLaMa 400B na Europa, invocando a incerteza regulamentar. A OpenAI ameaçou limitar o lançamento de produtos na Europa em 2023, mas rapidamente recuou. 

Para cumprir a lei, as empresas de IA poderão ter de rever os conjuntos de dados de formação, implementar uma supervisão humana mais sólida e fornecer às autoridades da UE documentação pormenorizada.

Isto está em contradição com a forma como a indústria da IA funciona. Os modelos de IA proprietários da OpenAI, Google, etc. são secretos e muito bem guardados.

Os dados de treino são excecionalmente valiosos e a sua revelação exporia provavelmente grandes quantidades de material protegido por direitos de autor.

Há perguntas difíceis a responder para que o desenvolvimento da IA possa progredir ao mesmo ritmo que até agora. 

Algumas empresas estão sob pressão para agir mais cedo do que outras

A Comissão Europeia estima que cerca de 85% das empresas de IA se enquadram na categoria de "risco mínimo", exigindo pouca supervisão, mas as regras da lei afectam, no entanto, as actividades das empresas das categorias superiores. 

Os recursos humanos e o emprego são uma das áreas classificadas na categoria de "alto risco" da lei. 

Os principais fornecedores de software empresarial, como a SAP, a Oracle, a IBM, a Workday e a ServiceNow, lançaram aplicações de RH com IA que incorporam a IA na seleção e gestão de candidatos.

Jesper Schleimann, responsável pela IA da SAP para a região EMEA, disse O Registo que a empresa estabeleceu processos sólidos para garantir o cumprimento das novas regras. 

Da mesma forma, a Workday implementou um programa de IA responsável liderado por executivos seniores para se alinhar com os requisitos da lei.

Outra categoria abrangida pelo cosh é a dos sistemas de IA utilizados em infra-estruturas críticas e serviços públicos e privados essenciais. 

Isto engloba uma vasta gama de aplicações, desde a IA utilizada nas redes de energia e nos sistemas de transporte até à utilizada nos cuidados de saúde e nos serviços financeiros.

As empresas que operam nestes sectores terão de demonstrar que os seus sistemas de IA cumprem normas rigorosas de segurança e fiabilidade. Terão também de efetuar avaliações de risco exaustivas, implementar sistemas de monitorização sólidos e garantir que os seus modelos de IA são explicáveis e transparentes.

Embora a Lei da IA proíba completamente certas utilizações da identificação biométrica e da vigilância, faz concessões limitadas em contextos de aplicação da lei e de segurança nacional. 

Esta tem-se revelado uma área fértil para o desenvolvimento da IA, com empresas como a Palantir a construir sistemas avançados de previsão da criminalidade susceptíveis de contradizer o ato. 

O Reino Unido já experimentou bastante com Vigilância alimentada por IA. Embora o Reino Unido não pertença à UE, muitas empresas de IA aí sediadas terão quase de certeza de cumprir a lei. 

A incerteza está à vista

A reação à lei tem sido mista. Numerosas empresas do sector tecnológico da UE manifestaram a sua preocupação quanto ao seu impacto na inovação e na concorrência. 

Em junho, mais de 150 executivos de grandes empresas como a Renault, a Heineken, a Airbus e a Siemens uniram-se numa carta aberta, manifestando as suas preocupações quanto ao impacto do regulamento nas empresas.

Jeannette zu Fürstenberg, uma das signatárias e sócia fundadora do fundo de capital de risco La Famiglia VC, com sede em Berlim, afirmou que o AI Act pode ter "implicações catastróficas para a competitividade europeia". 

A France Digitale, que representa as empresas tecnológicas em fase de arranque na Europa, criticou as regras e definições da lei, afirmando: "Pedimos que não se regulamentasse a tecnologia enquanto tal, mas que se regulamentassem as utilizações da tecnologia. A solução adoptada hoje pela Europa equivale a regulamentar a matemática, o que não faz muito sentido".

No entanto, os apoiantes argumentam que a lei também apresenta oportunidades de inovação no desenvolvimento responsável da IA. A posição da UE é clara: proteger as pessoas da IA, e seguir-se-á uma indústria mais completa e orientada para a ética. 

Regnier disse ao Euro News"O que se ouve por todo o lado é que o que a UE faz é apenas regulamentação (...) e que isso vai bloquear a inovação. Isso não é correto".

"A legislação não existe para impedir as empresas de lançarem os seus sistemas - é o oposto. Queremos que elas operem na UE, mas queremos proteger os nossos cidadãos e as nossas empresas".

Embora o ceticismo seja grande, há motivos para otimismo. SA definição de limites para o reconhecimento facial, a pontuação social e a análise comportamental com base na IA foi concebida para proteger as liberdades civis dos cidadãos da UE, que há muito têm precedência sobre a tecnologia na regulamentação da UE.

A nível internacional, a lei pode ajudar a reforçar a confiança do público nas tecnologias de IA, a dissipar os receios e a estabelecer normas mais claras para o desenvolvimento e a utilização da IA.

A criação de confiança a longo prazo na IA é vital para manter a indústria a avançar, pelo que a lei poderá ter algumas vantagens comerciais, embora seja necessário ter paciência para a ver concretizada.

Junte-se ao futuro


SUBSCREVER HOJE

Claro, conciso e abrangente. Fique a par dos desenvolvimentos da IA com DailyAI

Calças de ganga Sam

Sam é um escritor de ciência e tecnologia que trabalhou em várias startups de IA. Quando não está a escrever, pode ser encontrado a ler revistas médicas ou a vasculhar caixas de discos de vinil.

×

PDF GRATUITO EXCLUSIVO
Fique à frente com o DailyAI

Subscreva a nossa newsletter semanal e receba acesso exclusivo ao último livro eletrónico do DailyAI: 'Mastering AI Tools: Seu guia 2024 para aumentar a produtividade'.

*Ao subscrever a nossa newsletter, aceita a nossa Política de privacidade e o nosso Termos e condições