New York City hat als erste Stadt der Welt ein Gesetz zur Regelung des Einsatzes automatisierter Entscheidungshilfen bei der Personalauswahl (AEDTs) erlassen. Forscher der Cornell University fanden heraus, dass Schwierigkeiten bei der Auslegung und Durchsetzung des Gesetzes dazu führen, dass sich nur wenige Unternehmen an die Regeln halten.
AEDTs nutzen maschinelles Lernen, statistische Modellierung, Datenanalyse oder künstliche Intelligenz, um Arbeitgebern und Arbeitsagenturen bei der Entscheidung zu helfen, welche Bewerber eingestellt werden sollen, und ersetzen dabei diskretionäre Entscheidungen.
Diese Tools nutzen KI, um Stapel von Lebensläufen zu verarbeiten, Stimmungen oder psychologische Faktoren aus einem Vorstellungsgespräch zu analysieren und eine Vielzahl anderer Faktoren zu berücksichtigen, um schließlich zu sagen: "Stellen Sie diesen Mann ein".
Aufgrund der inhärenten Voreingenommenheit von KI-Modellen können AEDTs bei der Auswahl der von ihnen empfohlenen Stellenbewerber voreingenommen sein, daher die Einführung von Ortsgesetz 144 (LL144).
Das Gesetz, das am 1. Januar 2023 in Kraft getreten ist und seit Juli letzten Jahres umgesetzt wird, zielt darauf ab, den potenziellen Schaden zu bekämpfen, den die Verwendung von AEDTs für marginalisierte Arbeitssuchende mit sich bringen könnte.
Das Gesetz besagt, dass Arbeitgeber in New York City AEDTs verwenden können, aber sie müssen ihre Tools auf Voreingenommenheit prüfen lassen, die Prüfungen veröffentlichen und die Bewerber darüber informieren, dass sie das Tool in ihrem Einstellungsprozess verwenden.
Wie sieht es mit dem Gesetz aus?
Forscher der Cornell University fanden heraus dass die unklare Definition des Begriffs "AEDT" und die Art und Weise, wie er verwendet wird, ein Grund für die sehr geringe Einhaltung der Vorschriften sein könnte.
Die Forscher schickten 155 Studenten als potenzielle Arbeitssuchende los und fanden nur 18 Voreingenommenheitsprüfungen und 11 Transparenzmitteilungen von fast 400 Arbeitgebern, die sie analysierten.
Lassen Arbeitgeber keine Prüfungen durchführen oder veröffentlichen sie keine Transparenzmitteilungen, weil sie die im Gesetz festgelegten Schwellenwerte nicht erreichen? Vielleicht, aber angesichts des weit verbreiteten Einsatzes von AEDTs ist das eher unwahrscheinlich.
Lucas Wright, ein Doktorand, der die Studie mitverfasst hat, sagte: "Wir haben herausgefunden, dass wir nur Aussagen über die Einhaltung des Gesetzes machen können, nicht aber über die Nichteinhaltung, da das Gesetz den Arbeitgebern einen Ermessensspielraum bei der Entscheidung einräumt, ob das Gesetz auf den Einsatz von automatisierten Entscheidungshilfen für die Personalauswahl anwendbar ist.
Obwohl die Idee hinter dem Gesetz gut war, sagte Wright: "Das Gesetz hat zwar einen Markt für unabhängige Algorithmus-Prüfer geschaffen und zu einer gewissen Transparenz geführt, aber es hat auch Anreize für Arbeitgeber geschaffen, Prüfungen zu vermeiden."
KI-Tools werden in zunehmendem Maße für Einstellungsentscheidungen verwendet werden, und wenn keine strengen Regeln in sie einkodiert werden, werden die AEDTs weiterhin Vorurteile beibehalten, die in ihren Trainingsdaten enthalten waren.
LL144 ist ein guter Anfang, aber er sagt nicht, was passieren soll, wenn ein AEDT bei einem Bias-Audit durchfällt. Er besagt auch, dass jeder ein Prüfer sein kann, solange er nicht für den Arbeitgeber oder den Herausgeber des AEDT arbeitet.
Bei Verstößen gegen LL144 drohen Geldstrafen zwischen $500 und $1.500. Das Gesetz beruht auf Selbstregulierung und gibt dem Ministerium für Verbraucher- und Arbeitnehmerschutz (DCWP) keine proaktiven Untersuchungs- oder Ermittlungsbefugnisse.
Daher ist der geringe Grad der Einhaltung nicht überraschend. Wenn der Gesetzgeber Arbeitssuchende vor einer potenziell fehlerhaften KI schützen will, die über ihre Zukunft entscheidet, sollte er LL144 überdenken.