Um novo estudo do Banco de Inglaterra defende que os sistemas financeiros podem ser ameaçados por decisões enviesadas da IA.
Estudos recentes do Banco de Inglaterra sugerem que os algoritmos podem refletir preconceitos inerentes aos conjuntos de dados e manifestar um tratamento injusto dos consumidores ou dos profissionais.
Kathleen Blake, analista do Banco de Inglaterra, manifestou a sua preocupação relativamente a esta tendência. Comentou que Discriminação e preconceito alimentados pela IA pode pôr em risco os sistemas financeiros ao minar a confiança.
Além disso, salientou que as empresas que utilizam essa "IA tendenciosa ou injusta" podem expor-se a riscos jurídicos e de reputação significativos, levando a um escrutínio por parte dos organismos reguladores.
Além disso, o Ministério da Ciência, da Inovação e da Tecnologia declarou: "Estamos numa encruzilhada da história da humanidade e virar as costas seria uma oportunidade monumental perdida para a humanidade".
Para desenvolver o seu ponto de vista, a Sra. Blake referiu-se a alguns incidentes notáveis relacionados com a IA que incitaram ao preconceito. Por exemplo, um algoritmo que a Apple e a Goldman Sachs desenvolveram para a avaliação de pedidos de cartões de crédito foi criticado por alegadamente oferecer às mulheres limites de crédito reduzidos em comparação com os seus homólogos masculinos.
Esta discrepância chamou a atenção do Departamento de Serviços Financeiros do Estado de Nova Iorque em 2021.
As suas conclusões indicam que, embora o ato não tenha sido intencional, "revelou deficiências no serviço ao cliente e na transparência".
Blake também abordou O algoritmo de recrutamento da Amazon, salientando o seu preconceito inerente. Ela descreveu: "As candidatas foram classificadas negativamente porque o algoritmo foi treinado com base em currículos enviados à empresa durante um período de 10 anos e reflectia o domínio masculino da indústria".
Isto levou a Amazon a descontinuar a ferramenta em 2018, depois de se aperceber da penalização injusta dos candidatos que utilizavam termos como "capitã do clube de xadrez feminino".
O bot de recrutamento tendencioso da Amazon faz parte de todo um conjunto de modelos de IA preconceituosos e tendenciosos que tendem a falhar os grupos minoritários e mulheres.
A integração da IA nas infra-estruturas financeiras sem um exame rigoroso pode perpetuar questões de preconceito e discriminação.