A World Ethical Data Foundation, com mais de 25 000 membros, incluindo profissionais de empresas tecnológicas líderes como a Meta, a Google e a Samsung, criou um quadro aberto para o desenvolvimento ético da IA.
O novo quadro proposto apresenta uma lista de verificação de 84 pontos com perguntas relativas a 3 processos-chave de desenvolvimento da IA:
- Seleção e ingestão de dados
- Criação ou seleção de algoritmos e modelos
- Gestão de dados de teste e marcação
A carta aberta descreve o projeto "Me-We-It: An Open Standard for Responsible AI", com o objetivo de racionalizar o desenvolvimento da IA, tornando-o transparente, ético e inclusivo.
É simples e não técnico, concebido para promover o debate sobre o desenvolvimento da IA.
Pode ver e assinar a carta aqui.
A proposta responde também à necessidade premente de os decisores políticos se manterem a par da regulamentação da IA. Defende que, embora a legislação como o AI Act da UE seja fundamental, a comunidade tecnológica pode criar proactivamente normas accionáveis para o desenvolvimento ético da IA.
De acordo com Vince Lynch, conselheiro da direção da World Ethical Data Foundation, a comunidade de IA encontra-se atualmente na "fase do Oeste Selvagem, em que se trata apenas de: 'Vamos ver como corre'".
Lynch, que iniciou o quadro, alerta para as questões relacionadas com a IA em torno da propriedade intelectual e dos direitos humanos, que representam riscos imediatos a par das falsificações profundas e da fraude apoiada pela IA.
Quadros abertos sobre a IA: vale a pena?
Os quadros abertos e voluntários encorajam o debate, mas é difícil dizer se se traduzem em acções práticas.
O diretor executivo da OpenAI, Sam Altman, já defendeu anteriormente a criação de uma quadro aberto em relação à IA, à semelhança do que observámos noutros sectores. Outros líderes tecnológicos e funcionários da UE apelaram a uma regulamentação provisória para fazer cumprir as regras antes da entrada em vigor de legislação como a Lei da IA da UE.
Até à data, o desenvolvimento da IA é uma atividade normal, e empresas como a Inflection estão a construir uma infraestrutura colossal de formação em IA que ultrapassa tudo o que já vimos.
A UE instou as empresas tecnológicas a tomarem medidas sobre conteúdos de IA especificamente nocivos, incluindo falsificações profundas, que já violam regras como a Lei dos Serviços Digitais da UE.
Quando os líderes da UE e dos EUA reuniram-se na Suécia no final de maioNo dia 2 de fevereiro de 2009, os eurodeputados debateram um potencial "paliativo" regulamentar para abrandar o desenvolvimento da IA, mas não há provas substanciais de que a trajetória da tecnologia se tenha alterado.
O problema das regras voluntárias é o facto de serem apenas isso - voluntárias. As empresas de IA provavelmente argumentariam que já estão a responder às questões colocadas pela World Ethical Data Foundation.
Mesmo as regras obrigatórias não garantem a consecução dos seus objectivos, e a atenuação dos riscos da IA é um trabalho em curso.