New York City is de eerste stad ter wereld die een wet heeft aangenomen die het gebruik van geautomatiseerde hulpmiddelen voor tewerkstellingsbeslissingen (AEDT's) reguleert. Onderzoekers van de Cornell University ontdekten dat problemen met de interpretatie en handhaving van de wet ertoe leiden dat maar weinig bedrijven zich aan de regels houden.
AEDT's maken gebruik van machinaal leren, statistische modellering, gegevensanalyse of kunstmatige intelligentie om werkgevers en uitzendbureaus te helpen beslissen welke sollicitant ze willen aannemen en daarbij discretionaire besluitvorming te vervangen.
Deze tools gebruiken AI om stapels cv's te verwerken, sentiment of psychologische factoren van een sollicitatiegesprek te analyseren en een heleboel andere factoren om uiteindelijk te zeggen: 'Neem deze man aan.
Door de inherente vertekeningen in AI-modellen kunnen AEDT's vertekeningen vertonen in hun selectie van de kandidaten die ze aanbevelen. Plaatselijke Wet 144 (LL144).
De wet, die op 1 januari 2023 van kracht werd en waarvan de handhaving afgelopen juli begon, is bedoeld om de potentiële schade tegen te gaan die het gebruik van AEDT's zou kunnen toebrengen aan gemarginaliseerde werkzoekenden.
De wet zegt dat werkgevers in New York AEDT's mogen gebruiken, maar ze moeten hun tools laten controleren op vooroordelen, de controles publiceren en sollicitanten informeren dat ze de tool gebruiken in hun wervingsproces.
Hoe gaat het met de wet?
Onderzoekers van de Cornell University ontdekten dat de vaagheid in de definitie van wat AEDT's zijn en hoe ze worden gebruikt de oorzaak kan zijn van de zeer lage naleving.
De onderzoekers stuurden 155 studenten op pad om als potentiële werkzoekenden te fungeren en vonden slechts 18 partijdigheidscontroles en 11 transparantieverklaringen van bijna 400 werkgevers die ze analyseerden.
Laten werkgevers geen audits uitvoeren of publiceren ze geen transparantieverklaringen omdat ze niet voldoen aan de wettelijke drempel? Misschien, maar met het gerapporteerde wijdverbreide gebruik van AEDT's is dat onwaarschijnlijk.
Lucas Wright, een promovendus die meeschreef aan het onderzoek, zei: "We ontdekten dat, omdat de wet werkgevers de vrijheid geeft om te bepalen of de wet van toepassing is op hun gebruik van geautomatiseerde instrumenten voor personeelsbeslissingen (AEDT's), we alleen uitspraken kunnen doen over naleving van de wet, niet over niet-naleving."
Hoewel het idee achter de wet goed was, zei Wright: "Hoewel de wet een markt voor onafhankelijke algoritme-auditors heeft gecreëerd en tot enige transparantie heeft geleid, heeft het werkgevers eigenlijk gestimuleerd om audits te vermijden."
AI-tools zullen steeds vaker worden gebruikt om beslissingen over aanwerving te nemen en tenzij er strikte regels in worden gecodeerd, zullen AEDT's vooroordelen die in hun trainingsgegevens zaten, blijven voortzetten.
LL144 is een goed begin, maar het zegt niet wat er moet gebeuren als een AEDT niet slaagt voor een partijdigheidscontrole. Het zegt ook dat iedereen een auditor kan zijn zolang hij of zij niet voor de werkgever of de uitgever van de AEDT werkt.
Overtreders van LL144 riskeren boetes tussen $500 en $1.500. De wet is gebaseerd op zelfregulering en geeft het Department of Consumer and Worker Protection (DCWP) geen proactieve onderzoeks- of ontdekkingsbevoegdheden.
Dit maakt het lage niveau van naleving niet verrassend. Als wetgevers werkzoekenden willen beschermen tegen een mogelijk haperende AI die over hun toekomst beslist, moeten ze misschien LL144 opnieuw bekijken.