AI kan ons verblinden met zijn schijnbare objectiviteit, terwijl het in werkelijkheid zeer subjectief is en vatbaar voor vooroordelen.
Talrijke onderzoeken benadrukken AI-gerelateerde vooringenomenheidDe meeste effecten worden gevoeld door mensen met een donkere huidskleur en vrouwen.
Er zijn veel historische lessen te leren op het gebied van bevooroordeelde AI, zoals het mislukte wervingsmodel van Amazon, dat er niet in slaagde om vrouwen eerlijk aan te bevelen voor technische functies, en gezichtsherkenningsmodellen, die ten onrechte verschillende zwarte mannen identificeerden, wat resulteerde in slepende juridische kwesties.
Nu AI steeds meer deel uitmaakt van ons dagelijks leven, is de kwestie van vooringenomenheid cruciaal geworden, omdat sommige van deze systemen levensveranderende beslissingen namens ons nemen.
Vrouwen zijn bezorgd dat AI-systemen hen niet in dezelfde mate als mannen ten goede komen of dienen, wat leidt tot slechte en ongelijke besluitvorming.
Catherine Flick, onderzoeker op het gebied van computergebruik en sociale verantwoordelijkheid aan de De Montfort University in het Verenigd Koninkrijk, zei: "Het is een versterking van een technocentrische patriarchale samenleving die opnieuw gendervooroordelen inbouwt in schijnbaar 'neutrale' technologie."
Flick wijst erop dat zelfs technologieën die we als neutraal beschouwen, zoals auto's of de moderne geneeskunde, niet noodzakelijkerwijs zo effectief aan de behoeften van vrouwen voldoen als aan die van mannen.
McKinsey's recente prognoses geven aan dat AI banen kan verdringen, waarbij vrouwen 1,5 keer kwetsbaarder zijn voor baanverplaatsing door AI dan mannen.
Dr. Sasha Luccioni van het AI-ontwikkelingsbedrijf HuggingFace zegt over het mislukte wervingsproject van Amazon dat sollicitaties met het woord 'vrouwen' of 'vrouwen' direct bevooroordeelde: "Vrouwen waren zo ondervertegenwoordigd in de gegevens dat het model in wezen elke keer 'vrouwen' afwees."
Van sommige klassieke datasets die gebruikt worden voor machine learning (ML) benchmarking is bekend dat ze voornamelijk uit blanke mannen bestaan.
Luccioni vervolgt: "Er zijn heel weinig vrouwen die op dit gebied werken en heel weinig vrouwen die een plek aan tafel hebben." Dit gebrek aan vertegenwoordiging is belangrijk omdat algoritmes waarden met zich meedragen, legt ze uit. Deze waarden weerspiegelen mogelijk geen divers perspectief als de makers overwegend mannen zijn.
Dit gebrek aan evenwicht tussen mannen en vrouwen is ook duidelijk in AI-trainingsgegevens. Veel grote taalmodellen, zoals ChatGPT, gebruiken datasets van platforms zoals Reddit voor training, waar ongeveer tweederde van de gebruikers mannelijk is. Als gevolg hiervan kunnen deze AI-systemen resultaten produceren die mannelijke gesprekken weerspiegelen.
aanspreken AI's vooroordelen vereist een holistische aanpak, stelt Flick.
Van het verzamelen van gegevens tot de engineeringfase vereist het proces een grotere diversiteit. "Als de gegevens die binnenkomen niet goed genoeg zijn, zouden ze niet eens in de engineeringfase moeten komen," benadrukt ze.