Kampen for å forhindre kjønnsdiskriminerende AI-systemer

9. august 2023

AI-kvinner

AI kan blende oss med sin tilsynelatende objektivitet, selv om den i virkeligheten er dypt subjektiv og utsatt for forutinntatthet. 

En rekke studier fremhever AI-relaterte skjevheter, og det er personer med mørkere hudfarge og kvinner som merker de største effektene. 

Det finnes mange historiske eksempler på partisk AI, blant annet Amazons mislykkede rekrutteringsmodell, som ikke klarte å anbefale kvinner på en rettferdig måte til teknologiske stillinger, og ansiktsgjenkjenningsmodeller som feilaktig identifiserte flere svarte menn, noe som resulterte i langvarige juridiske problemer. 

Etter hvert som kunstig intelligens blir en stadig viktigere del av hverdagen vår, har spørsmålet om partiskhet blitt kritisk, ettersom noen av disse systemene tar livsendrende beslutninger på våre vegne.

Kvinner er bekymret for at AI-systemer ikke er til like stor nytte for dem som for menn, noe som resulterer i dårlige og urettferdige beslutninger. 

Catherine Flick, forsker i Computing & Social Responsibility ved De Montfort University i Storbritannia, kommenterte: "Det er en forsterkning av et teknosentrisk patriarkalsk samfunn som nok en gang koder kjønnsskjevhet inn i tilsynelatende 'nøytral' teknologi." 

Flick påpeker at selv teknologi som vi ser på som nøytral, som biler eller moderne medisin, ikke nødvendigvis imøtekommer kvinners behov like effektivt som menns.

McKinseys nylige prognoser indikerer at kunstig intelligens kan fortrenge arbeidsplasser, og at kvinner er 1,5 ganger mer utsatt for å miste jobben på grunn av kunstig intelligens enn menn.

Dr. Sasha Luccioni, fra AI-utviklingsselskapet HuggingFace, sier om Amazons mislykkede rekrutteringsprosjekt som direkte forhåndsdømte søknader som inneholdt ordet "kvinner" eller "kvinners": "Kvinner var så underrepresentert i dataene at modellen i hovedsak ville avvise hver gang "kvinner" dukket opp."

Noen klassiske datasett som brukes til benchmarking av maskinlæring (ML), har blitt avslørt for å bestå av overveiende hvite menn. 

Luccioni fortsatte: "Det er svært få kvinner som jobber i bransjen, og svært få kvinner som har en plass ved bordet." Denne mangelen på representasjon er viktig fordi algoritmer, forklarer hun, bærer med seg verdier. Det er ikke sikkert at disse verdiene gjenspeiler et mangfoldig perspektiv hvis skaperne er overveiende menn.

Denne kjønnsubalansen er tydelig også i AI-treningsdata. Mange store språkmodeller, som ChatGPT, bruker datasett fra plattformer som Reddit til opplæring, der rundt to tredjedeler av brukerne er menn. Som et resultat kan disse AI-systemene produsere resultater som gjenspeiler samtaler med en skjev kjønnsfordeling.

Adressering AIs skjevheter krever en helhetlig tilnærming, mener Flick.

Fra datainnsamling til utviklingsstadiet krever prosessen større mangfold. "Hvis dataene som kommer inn, ikke er gode nok, bør de ikke engang komme til prosjekteringsstadiet", insisterer hun.

Bli med i fremtiden


ABONNER I DAG

Tydelig, kortfattet og omfattende. Få et grep om AI-utviklingen med DagligAI

Sam Jeans

Sam er en vitenskaps- og teknologiskribent som har jobbet i ulike oppstartsbedrifter innen kunstig intelligens. Når han ikke skriver, leser han medisinske tidsskrifter eller graver seg gjennom esker med vinylplater.

×

GRATIS PDF EKSKLUSIV
Hold deg i forkant med DailyAI

Meld deg på vårt ukentlige nyhetsbrev og få eksklusiv tilgang til DailyAIs nyeste e-bok: "Mastering AI Tools: Din 2024-guide til økt produktivitet".

*Ved å abonnere på vårt nyhetsbrev aksepterer du vår Retningslinjer for personvern og vår Vilkår og betingelser