AI kan blænde os med sin tilsyneladende objektivitet, når den i virkeligheden er dybt subjektiv og udsat for bias.
Talrige undersøgelser fremhæver AI-relateret biasDet er især personer med mørkere hudfarve og kvinder, der mærker effekten.
Der er mange historiske erfaringer med forudindtaget AI, herunder Amazons mislykkede rekrutteringsmodel, som ikke kunne anbefale kvinder retfærdigt til teknologiske roller, og ansigtsgenkendelsesmodeller, som fejlagtigt identificerede flere sorte mænd, hvilket resulterede i langvarige juridiske problemer.
Efterhånden som AI bliver dybt integreret i vores dagligdag, er spørgsmålet om bias blevet kritisk, da nogle af disse systemer træffer livsændrende beslutninger på vores vegne.
Kvinder er bekymrede over, at AI-systemer ikke gavner eller tjener dem på samme måde som mænd, hvilket resulterer i dårlig og uretfærdig beslutningstagning.
Catherine Flick, forsker i computere og socialt ansvar fra De Montfort University i Storbritannien, siger: "Det er en forstærkning af et teknocentrisk patriarkalsk samfund, som endnu en gang indkapsler kønsdiskriminering i tilsyneladende 'neutral' teknologi."
Flick påpeger, at selv teknologier, som vi betragter som neutrale, som biler eller moderne medicin, ikke nødvendigvis imødekommer kvinders behov lige så effektivt som mænds.
McKinsey's nylige fremskrivninger indikerer, at AI kan fortrænge job, og at kvinder er 1,5 gange mere sårbare over for jobfortrængning på grund af AI end mænd.
Dr. Sasha Luccioni fra AI-udviklingsvirksomheden HuggingFace siger om Amazons mislykkede rekrutteringsprojekt, der direkte afviste ansøgninger, der indeholdt ordet "kvinder" eller "kvinders": "Kvinder var så underrepræsenterede i dataene, at modellen stort set ville afvise hver gang 'kvinder' dukkede op."
Nogle klassiske datasæt, der bruges til benchmarking af maskinlæring (ML), er blevet afsløret som bestående af overvejende hvide mænd.
Luccioni fortsatte: "Der er meget få kvinder, der arbejder inden for området, og meget få kvinder, der sidder med ved bordet." Denne mangel på repræsentation er vigtig, fordi algoritmer, forklarer hun, bærer på værdier. De værdier afspejler måske ikke et mangfoldigt perspektiv, hvis skaberne overvejende er mænd.
Denne ubalance mellem kønnene er også tydelig i AI-træningsdata. Mange store sprogmodeller, som ChatGPT, bruger datasæt fra platforme som Reddit til træning, hvor omkring to tredjedele af brugerne er mænd. Som følge heraf kan disse AI-systemer producere resultater, der afspejler mandepartiske samtaler.
Adressering AI's fordomme kræver en holistisk tilgang, mener Flick.
Fra dataindsamling til udviklingsfasen kræver processen større mangfoldighed. "Hvis de data, der kommer ind, ikke er gode nok, bør de ikke engang komme til udviklingsfasen," insisterer hun.