AI kan förblinda oss med sin skenbara objektivitet, trots att den i själva verket är djupt subjektiv och kan ge upphov till fördomar.
Många studier belyser AI-relaterad partiskhet, där de flesta effekterna drabbade mörkhyade personer och kvinnor.
Det finns många historiska exempel på fördomsfull AI, bland annat Amazons misslyckade rekryteringsmodell, som inte rekommenderade kvinnor rättvist för tekniska roller, och modeller för ansiktsigenkänning, som felaktigt identifierade flera svarta män, vilket ledde till utdragna juridiska problem.
I takt med att AI blir en allt viktigare del av vår vardag har frågan om partiskhet blivit allt viktigare, eftersom vissa av dessa system fattar livsavgörande beslut för vår räkning.
Kvinnor är oroade över att AI-system inte gynnar eller tjänar dem på samma sätt som män, vilket leder till dåligt och orättvist beslutsfattande.
Catherine Flick, forskare inom Computing & Social Responsibility vid De Montfort University i Storbritannien, kommenterade: "Det är en förstärkning av ett teknocentriskt patriarkalt samhälle som återigen kodar in könsfördomar i till synes 'neutral' teknik."
Flick påpekar att även teknik som vi betraktar som neutral, som bilar eller modern medicin, inte nödvändigtvis tillgodoser kvinnors behov lika effektivt som de gör för män.
McKinseys senaste prognoserna visar att AI kan leda till att arbetstillfällen försvinner, och att kvinnor är 1,5 gånger mer sårbara för att arbetstillfällen försvinner på grund av AI än män.
På tal om Amazons misslyckade rekryteringsprojekt som direkt missgynnade ansökningar som innehöll ordet "kvinnor" eller "kvinnors", säger Dr. Sasha Luccioni, från AI-utvecklingsföretaget HuggingFace: "Kvinnor var så underrepresenterade i data att modellen i princip skulle avvisa varje gång 'kvinnor' dök upp."
Vissa klassiska dataset som används för benchmarking av maskininlärning (ML) har avslöjats med att bestå av övervägande vita män.
Luccioni fortsatte: "Det är väldigt få kvinnor som arbetar inom området och väldigt få kvinnor som sitter med vid bordet." Den här bristen på representation är viktig eftersom algoritmer, förklarar hon, bär på värderingar. Dessa värden kanske inte återspeglar ett mångsidigt perspektiv om skaparna är övervägande män.
Denna obalans mellan könen är tydlig även i träningsdata för AI. Många stora språkmodeller, som ChatGPT, använder dataset från plattformar som Reddit för träning, där cirka två tredjedelar av användarna är män. Som ett resultat kan dessa AI-system producera resultat som återspeglar konversationer med manliga fördomar.
Adressering AI:s fördomar kräver ett holistiskt synsätt, menar Flick.
Från datainsamling till konstruktionsstadiet kräver processen större mångfald. "Om de data som kommer in inte är tillräckligt bra bör de inte ens komma till konstruktionsstadiet", betonar hon.