Ny forskning fra Bank of England viser at finanssystemene kan bli truet av partisk AI-beslutningstaking.
Ny forskning fra Bank of England tyder på at algoritmer kan gjenspeile skjevheter i datasett og føre til urettferdig behandling av forbrukere eller profesjonelle aktører.
Kathleen Blake, analytiker ved Bank of England, uttrykte bekymring for denne utviklingen. Hun kommenterte det slik AI-drevet diskriminering og fordommer kan sette finanssystemene i fare ved å undergrave tilliten.
Hun påpekte også at selskaper som bruker slik "partisk eller urettferdig kunstig intelligens", kan utsette seg for betydelig juridisk risiko og omdømmerisiko, noe som kan føre til granskning fra tilsynsorganer.
I tillegg til dette bemerket departementet for vitenskap, innovasjon og teknologi: "Vi står ved et veiskille i menneskehetens historie, og å snu den andre veien ville være en monumental forspilt mulighet for menneskeheten."
Blake utdypet poenget sitt ved å vise til noen bemerkelsesverdige AI-relaterte hendelser som har ført til fordommer. For eksempel ble en algoritme som Apple og Goldman Sachs hadde utviklet for å evaluere kredittkortsøknader, kritisert for å ha tilbudt kvinner lavere kredittgrenser enn menn.
Dette avviket ble påpekt av New York State Department of Financial Services i 2021.
De konkluderte med at selv om handlingen ikke var tilsiktet, viste den "mangler i kundeservice og åpenhet".
Blake kom også inn på Amazons rekrutteringsalgoritmeog fremhevet dens iboende skjevhet. Hun beskrev det slik: "Kvinnelige søkere fikk negative poeng fordi algoritmen var trent på CV-er som var sendt inn til selskapet over en tiårsperiode og gjenspeilte den mannlige dominansen i bransjen."
Dette førte til at Amazon avviklet verktøyet i 2018 etter å ha innsett at det urettferdig straffet kandidater som brukte begreper som "kaptein i en kvinnelig sjakklubb".
Amazons forutinntatte rekrutteringsbot er en del av et helt ensemble av fordomsfulle og partiske AI-modeller som har en tendens til å svikter minoritetsgrupper og kvinner.
Integrering av kunstig intelligens i finansinfrastrukturen uten grundig granskning kan bidra til å opprettholde problemer med skjevheter og diskriminering.