Une nouvelle étude de la Banque d'Angleterre affirme que les systèmes financiers pourraient être menacés par une prise de décision biaisée de l'IA.
Des recherches récentes de la Banque d'Angleterre suggèrent que les algorithmes peuvent refléter les biais inhérents aux ensembles de données et manifester un traitement inéquitable des consommateurs ou des professionnels.
Kathleen Blake, analyste à la Banque d'Angleterre, a fait part de ses préoccupations concernant cette tendance. Elle a déclaré que Discrimination et préjugés alimentés par l'IA pourrait mettre en péril les systèmes financiers en sapant la confiance.
En outre, elle a souligné que les entreprises qui déploient une telle "IA biaisée ou injuste" peuvent s'exposer à des risques juridiques et de réputation importants, conduisant à un examen minutieux de la part des organismes de réglementation.
Le ministère de la science, de l'innovation et de la technologie a ajouté : "Nous sommes à un carrefour de l'histoire de l'humanité, et faire marche arrière serait une occasion monumentale manquée pour l'humanité".
Développant son point de vue, Mme Blake a fait référence à certains incidents notables liés à l'IA qui ont donné lieu à des préjugés. Par exemple, un algorithme développé par Apple et Goldman Sachs pour évaluer les demandes de cartes de crédit a été critiqué parce qu'il offrait aux femmes des limites de crédit réduites par rapport à leurs homologues masculins.
Cet écart a attiré l'attention du département des services financiers de l'État de New York en 2021.
Les conclusions de l'étude indiquent que, bien que l'acte n'ait pas été intentionnel, il "a révélé des lacunes en matière de service à la clientèle et de transparence".
Blake a également abordé les sujets suivants L'algorithme de recrutement d'AmazonElle a mis en évidence les préjugés inhérents à cet algorithme. Selon elle, "les candidates ont été mal notées parce que l'algorithme a été formé à partir des CV soumis à l'entreprise sur une période de dix ans et qu'il reflétait la prédominance masculine dans le secteur".
Amazon a donc cessé d'utiliser cet outil en 2018 après s'être rendu compte qu'il pénalisait injustement les candidats utilisant des termes tels que "capitaine d'un club d'échecs féminin".
Le robot de recrutement biaisé d'Amazon fait partie d'un ensemble de modèles d'IA biaisés qui ont tendance à ne pas tenir compte des groupes minoritaires et femmes.
L'intégration de l'IA dans l'infrastructure financière sans un examen rigoureux pourrait perpétuer les problèmes de partialité et de discrimination.