De strijd om genderspecifieke AI-systemen te voorkomen

9 augustus 2023

AI-vrouwen

AI kan ons verblinden met zijn schijnbare objectiviteit, terwijl het in werkelijkheid zeer subjectief is en vatbaar voor vooroordelen. 

Talrijke onderzoeken benadrukken AI-gerelateerde vooringenomenheidDe meeste effecten worden gevoeld door mensen met een donkere huidskleur en vrouwen. 

Er zijn veel historische lessen te leren op het gebied van bevooroordeelde AI, zoals het mislukte wervingsmodel van Amazon, dat er niet in slaagde om vrouwen eerlijk aan te bevelen voor technische functies, en gezichtsherkenningsmodellen, die ten onrechte verschillende zwarte mannen identificeerden, wat resulteerde in slepende juridische kwesties. 

Nu AI steeds meer deel uitmaakt van ons dagelijks leven, is de kwestie van vooringenomenheid cruciaal geworden, omdat sommige van deze systemen levensveranderende beslissingen namens ons nemen.

Vrouwen zijn bezorgd dat AI-systemen hen niet in dezelfde mate als mannen ten goede komen of dienen, wat leidt tot slechte en ongelijke besluitvorming. 

Catherine Flick, onderzoeker op het gebied van computergebruik en sociale verantwoordelijkheid aan de De Montfort University in het Verenigd Koninkrijk, zei: "Het is een versterking van een technocentrische patriarchale samenleving die opnieuw gendervooroordelen inbouwt in schijnbaar 'neutrale' technologie." 

Flick wijst erop dat zelfs technologieën die we als neutraal beschouwen, zoals auto's of de moderne geneeskunde, niet noodzakelijkerwijs zo effectief aan de behoeften van vrouwen voldoen als aan die van mannen.

McKinsey's recente prognoses geven aan dat AI banen kan verdringen, waarbij vrouwen 1,5 keer kwetsbaarder zijn voor baanverplaatsing door AI dan mannen.

Dr. Sasha Luccioni van het AI-ontwikkelingsbedrijf HuggingFace zegt over het mislukte wervingsproject van Amazon dat sollicitaties met het woord 'vrouwen' of 'vrouwen' direct bevooroordeelde: "Vrouwen waren zo ondervertegenwoordigd in de gegevens dat het model in wezen elke keer 'vrouwen' afwees."

Van sommige klassieke datasets die gebruikt worden voor machine learning (ML) benchmarking is bekend dat ze voornamelijk uit blanke mannen bestaan. 

Luccioni vervolgt: "Er zijn heel weinig vrouwen die op dit gebied werken en heel weinig vrouwen die een plek aan tafel hebben." Dit gebrek aan vertegenwoordiging is belangrijk omdat algoritmes waarden met zich meedragen, legt ze uit. Deze waarden weerspiegelen mogelijk geen divers perspectief als de makers overwegend mannen zijn.

Dit gebrek aan evenwicht tussen mannen en vrouwen is ook duidelijk in AI-trainingsgegevens. Veel grote taalmodellen, zoals ChatGPT, gebruiken datasets van platforms zoals Reddit voor training, waar ongeveer tweederde van de gebruikers mannelijk is. Als gevolg hiervan kunnen deze AI-systemen resultaten produceren die mannelijke gesprekken weerspiegelen.

aanspreken AI's vooroordelen vereist een holistische aanpak, stelt Flick.

Van het verzamelen van gegevens tot de engineeringfase vereist het proces een grotere diversiteit. "Als de gegevens die binnenkomen niet goed genoeg zijn, zouden ze niet eens in de engineeringfase moeten komen," benadrukt ze.

Doe mee met de toekomst


SCHRIJF JE VANDAAG NOG IN

Duidelijk, beknopt, uitgebreid. Krijg grip op AI-ontwikkelingen met DailyAI

Sam Jeans

Sam is een wetenschap- en technologieschrijver die bij verschillende AI-startups heeft gewerkt. Als hij niet aan het schrijven is, leest hij medische tijdschriften of graaft hij door dozen met vinylplaten.

×

GRATIS PDF EXCLUSIEF
Blijf voorop met DailyAI

Meld je aan voor onze wekelijkse nieuwsbrief en ontvang exclusieve toegang tot DailyAI's nieuwste eBook: 'Mastering AI Tools: Your 2024 Guide to Enhanced Productivity'.

* Door u aan te melden voor onze nieuwsbrief accepteert u onze Privacybeleid en onze Algemene voorwaarden