Les représentants de la Banque d'Angleterre mettent en garde contre le rôle de l'IA dans la finance

12 octobre 2023

Banque d'Angleterre AI

Une nouvelle étude de la Banque d'Angleterre affirme que les systèmes financiers pourraient être menacés par une prise de décision biaisée de l'IA.

Des recherches récentes de la Banque d'Angleterre suggèrent que les algorithmes peuvent refléter les biais inhérents aux ensembles de données et manifester un traitement inéquitable des consommateurs ou des professionnels.

Kathleen Blake, analyste à la Banque d'Angleterre, a fait part de ses préoccupations concernant cette tendance. Elle a déclaré que Discrimination et préjugés alimentés par l'IA pourrait mettre en péril les systèmes financiers en sapant la confiance.

En outre, elle a souligné que les entreprises qui déploient une telle "IA biaisée ou injuste" peuvent s'exposer à des risques juridiques et de réputation importants, conduisant à un examen minutieux de la part des organismes de réglementation. 

Le ministère de la science, de l'innovation et de la technologie a ajouté : "Nous sommes à un carrefour de l'histoire de l'humanité, et faire marche arrière serait une occasion monumentale manquée pour l'humanité".

Développant son point de vue, Mme Blake a fait référence à certains incidents notables liés à l'IA qui ont donné lieu à des préjugés. Par exemple, un algorithme développé par Apple et Goldman Sachs pour évaluer les demandes de cartes de crédit a été critiqué parce qu'il offrait aux femmes des limites de crédit réduites par rapport à leurs homologues masculins. 

Cet écart a attiré l'attention du département des services financiers de l'État de New York en 2021.

Les conclusions de l'étude indiquent que, bien que l'acte n'ait pas été intentionnel, il "a révélé des lacunes en matière de service à la clientèle et de transparence".

Blake a également abordé les sujets suivants L'algorithme de recrutement d'AmazonElle a mis en évidence les préjugés inhérents à cet algorithme. Selon elle, "les candidates ont été mal notées parce que l'algorithme a été formé à partir des CV soumis à l'entreprise sur une période de dix ans et qu'il reflétait la prédominance masculine dans le secteur".

Amazon a donc cessé d'utiliser cet outil en 2018 après s'être rendu compte qu'il pénalisait injustement les candidats utilisant des termes tels que "capitaine d'un club d'échecs féminin".

Le robot de recrutement biaisé d'Amazon fait partie d'un ensemble de modèles d'IA biaisés qui ont tendance à ne pas tenir compte des groupes minoritaires et femmes.

L'intégration de l'IA dans l'infrastructure financière sans un examen rigoureux pourrait perpétuer les problèmes de partialité et de discrimination.

Rejoindre l'avenir


SOUSCRIRE AUJOURD'HUI

Clair, concis, complet. Maîtrisez les développements de l'IA avec DailyAI

Sam Jeans

Sam est un rédacteur scientifique et technologique qui a travaillé dans diverses start-ups spécialisées dans l'IA. Lorsqu'il n'écrit pas, on peut le trouver en train de lire des revues médicales ou de fouiller dans des boîtes de disques vinyles.

×

PDF GRATUIT EXCLUSIF
Gardez une longueur d'avance avec DailyAI

Inscrivez-vous à notre newsletter hebdomadaire et recevez un accès exclusif au dernier eBook de DailyAI : 'Mastering AI Tools : Your 2024 Guide to Enhanced Productivity" (Maîtriser les outils de l'IA : votre guide 2024 pour une meilleure productivité).

*En vous abonnant à notre lettre d'information, vous acceptez nos conditions d'utilisation. Politique de confidentialité et notre Conditions générales d'utilisation