O GitHub, a Hugging Face, a Creative Commons e várias outras organizações tecnológicas emitiram uma carta aberta aos responsáveis políticos da UE, instando-os a reavaliar alguns elementos da Lei da IA.
O carta afirma que os regulamentos propostos correm o risco de impedir o desenvolvimento de modelos de IA de fonte aberta e apresenta 5 recomendações para atenuar esse facto.
Um dos principais pontos de discórdia é o tratamento de alguns projectos de código aberto como se fossem sistemas de IA comerciais ou implantados. Este facto pode colocar dificuldades aos criadores individuais e aos investigadores sem fins lucrativos.
A Lei da IA recebeu uma esmagadora maioria de 499 votos a favor, 28 contra e 93 abstenções no Parlamento Europeu em junho.
No entanto, só será promulgada quando obtiver o consenso do Conselho da UE, que representa os 27 Estados-Membros.
Eis um resumo das 5 recomendações da carta:
- Definição de "componentes de IA": A carta recomenda que o Ato UE sobre a IA inclua uma definição precisa de "componentes de IA", um termo habitualmente utilizado no Ato, sublinhando a necessidade de delinear o que são esses componentes.
- Esclarecimento sobre o desenvolvimento de fontes abertas: O desenvolvimento em colaboração da IA de fonte aberta, como a disponibilização gratuita dos componentes da IA em repositórios públicos, deve ser clarificado como não estando sujeito à lei. Pretende-se assim distinguir as actividades de fonte aberta das actividades comerciais.
- Apoio a um "Gabinete de IA": O GitHub e outros apoiam a intenção da UE de criar um Gabinete de IA.
- Excepções efectivas à lei: A carta defende excepções para as actividades relacionadas com os testes em condições reais dos sistemas de IA para compreender o seu desempenho e identificar os pontos fracos.
- Requisitos proporcionais para os "modelos de fundação": Por último, a carta apela a uma abordagem matizada da diferenciação entre os diferentes modelos. Defende que a lei deve ter em conta as características únicas dos modelos de fonte aberta.
O GitHub e outros signatários esperam que a lei equilibre a mitigação de riscos e promova a inovação da IA, mas as suas recomendações ajudariam a apoiar a comunidade de código aberto, que desempenha um papel significativo no sector.
A regulamentação poderá afetar de forma desproporcionada a IA de fonte aberta
As grandes empresas tecnológicas, como a Microsoft, a Google e a Meta, são adeptas da gestão da conformidade e da regulamentação.
Isto não quer dizer que não cometam ocasionalmente erros graves, mas têm a força e os recursos necessários para cumprir os regulamentos relativos à IA.
De facto, na sua maioria, as grandes empresas tecnológicas têm sido muito encorajadoras da regulamentação e pró-activas na autorregulação. A Google, a Anthropic, a OpenAI e a Microsoft formaram o Frontier Model Forum esta semanainiciar a colaboração entre concorrentes.
A comunidade de código aberto acredita que a regulamentação a afectará mais fortemente, podendo mesmo criminalizar formas de I&D pública em matéria de IA.
Isto beneficia as grandes empresas tecnológicas, uma vez que a IA de código aberto é talvez a sua maior concorrente. Isso explicaria certamente porque é que eles estão tão dispostos a trabalhar em conjunto.