Neue Forschungsergebnisse der Bank of England zeigen, dass Finanzsysteme durch voreingenommene KI-Entscheidungen bedroht sein könnten.
Neue Forschungsergebnisse der Bank of England deuten darauf hin, dass Algorithmen inhärente Verzerrungen in Datensätzen widerspiegeln und eine ungerechte Behandlung von Verbrauchern oder Fachleuten offenbaren können.
Kathleen Blake, Analystin bei der Bank of England, äußerte sich besorgt über diesen Trend. Sie kommentierte, dass KI-gestützte Diskriminierung und Vorurteile könnten die Finanzsysteme gefährden, indem sie das Vertrauen untergraben.
Darüber hinaus wies sie darauf hin, dass Unternehmen, die solche "voreingenommene oder unfaire KI" einsetzen, sich erheblichen rechtlichen und Reputationsrisiken aussetzen können, was zu einer Überprüfung durch die Aufsichtsbehörden führt.
Das Ministerium für Wissenschaft, Innovation und Technologie fügte hinzu: "Wir stehen an einem Scheideweg in der Geschichte der Menschheit, und eine Abkehr davon wäre eine monumentale verpasste Chance für die Menschheit."
Um ihren Standpunkt zu verdeutlichen, verwies Frau Blake auf einige bemerkenswerte Vorfälle im Zusammenhang mit KI, die zu Vorurteilen geführt haben. So geriet beispielsweise ein Algorithmus, den Apple und Goldman Sachs für die Bewertung von Kreditkartenanträgen entwickelt hatten, in die Kritik, weil er Berichten zufolge Frauen im Vergleich zu ihren männlichen Kollegen geringere Kreditlimits einräumte.
Auf diese Diskrepanz wurde das New York State Department of Financial Services im Jahr 2021 aufmerksam.
Sie stellten fest, dass die Handlung zwar nicht vorsätzlich war, aber "Mängel im Kundenservice und in der Transparenz" aufwies.
Blake sprach auch folgende Themen an Amazons Einstellungsalgorithmusund wies auf die ihm innewohnende Voreingenommenheit hin. Sie beschrieb: "Weibliche Bewerber wurden negativ bewertet, weil der Algorithmus auf Lebensläufen trainiert wurde, die dem Unternehmen über einen Zeitraum von zehn Jahren vorgelegt wurden und die männliche Dominanz der Branche widerspiegelten."
Dies führte dazu, dass Amazon das Tool 2018 einstellte, nachdem es die ungerechte Benachteiligung von Bewerbern mit Begriffen wie "Kapitänin eines Frauenschachclubs" erkannt hatte.
Amazons voreingenommener Rekrutierungs-Bot ist Teil eines ganzen Ensembles von voreingenommenen und voreingenommenen KI-Modellen, die dazu neigen Minderheitengruppen durchfallen und Frauen.
Die Integration von KI in die Finanzinfrastruktur ohne strenge Prüfung könnte Probleme mit Voreingenommenheit und Diskriminierung verewigen.