A IA pode cegar-nos com a sua aparente objetividade quando, na realidade, é profundamente subjectiva e suscetível de ser enviesada.
Numerosos estudos sublinham Preconceito relacionado com a IAA maioria dos efeitos é sentida pelos indivíduos de pele mais escura e pelas mulheres.
Há muitas lições históricas sobre a IA tendenciosa, incluindo o modelo de recrutamento falhado da Amazon, que não recomendou as mulheres de forma justa para funções tecnológicas, e os modelos de reconhecimento facial, que identificaram erradamente vários homens negros, o que resultou em problemas legais prolongados.
À medida que a IA se integra profundamente no nosso quotidiano, a questão da parcialidade tornou-se crítica, uma vez que alguns destes sistemas estão a tomar decisões que mudam a nossa vida em nosso nome.
As mulheres estão preocupadas com o facto de os sistemas de IA não as beneficiarem ou não as servirem da mesma forma que os homens, o que resulta numa tomada de decisões pobre e desigual.
Catherine Flick, investigadora em Informática e Responsabilidade Social da Universidade De Montfort, Reino Unido, comentou: "É um reforço de uma sociedade patriarcal tecnocêntrica que, mais uma vez, codifica preconceitos de género numa tecnologia aparentemente 'neutra'."
Flick salienta que mesmo as tecnologias que consideramos neutras, como os automóveis ou a medicina moderna, podem não satisfazer necessariamente as necessidades das mulheres de forma tão eficaz como as dos homens.
McKinsey's projecções recentes indicam que a IA pode deslocar empregos, sendo as mulheres 1,5 vezes mais vulneráveis à deslocação de empregos pela IA do que os homens.
Falando do projeto de recrutamento falhado da Amazon que prejudicava diretamente as candidaturas que continham a palavra "mulheres" ou "mulheres", a Dra. Sasha Luccioni, da empresa de desenvolvimento de IA HuggingFace, afirma: "As mulheres estavam tão sub-representadas nos dados que o modelo rejeitava essencialmente sempre que aparecia a palavra 'mulheres'".
Alguns conjuntos de dados clássicos utilizados para a avaliação comparativa da aprendizagem automática (ML) foram expostos como sendo constituídos predominantemente por homens brancos.
Luccioni continuou: "Há muito poucas mulheres a trabalhar neste domínio, muito poucas mulheres a ter um lugar à mesa". Esta falta de representação é importante porque os algoritmos, explica, transportam valores. Esses valores podem não refletir uma perspetiva diversificada se os criadores forem predominantemente homens.
Este desequilíbrio entre géneros também é evidente nos dados de treino da IA. Muitos modelos linguísticos de grande dimensão, como o ChatGPT, utilizam conjuntos de dados de plataformas como o Reddit para treino, onde cerca de dois terços dos utilizadores são do sexo masculino. Consequentemente, estes sistemas de IA podem produzir resultados que reflectem conversas tendenciosas para os homens.
Endereçamento Os preconceitos da IA requer uma abordagem holística, defende Flick.
Desde a recolha de dados até à fase de engenharia, o processo exige uma maior diversidade. "Se os dados que entram não forem suficientemente bons, nem sequer devem chegar à fase de engenharia", insiste.