La città di New York è stata la prima al mondo a emanare una legge che regolamenta l'uso degli strumenti automatizzati di decisione sull'impiego (AEDT). I ricercatori della Cornell University hanno scoperto che le difficoltà di interpretazione e applicazione della legge fanno sì che poche aziende si attengano alle regole.
Gli AEDT utilizzano l'apprendimento automatico, la modellazione statistica, l'analisi dei dati o l'intelligenza artificiale per aiutare i datori di lavoro e le agenzie di collocamento a decidere quale candidato assumere, sostituendo il processo decisionale discrezionale.
Questi strumenti utilizzano l'intelligenza artificiale per elaborare pile di curriculum, analizzare il sentiment o i fattori psicologici di un colloquio e una serie di altri fattori per dire alla fine: "Assumi questo ragazzo".
A causa delle distorsioni intrinseche dei modelli di IA, gli AEDT possono manifestare pregiudizi nella selezione dei candidati al lavoro che raccomandano, da qui l'introduzione di Legge locale 144 (LL144).
La legge, che è stata promulgata il 1° gennaio 2023 e la cui applicazione è iniziata lo scorso luglio, mira a combattere il potenziale danno che l'uso degli AEDT potrebbe arrecare alle persone in cerca di lavoro emarginate.
La legge prevede che i datori di lavoro della città di New York possano utilizzare gli AEDT, ma che debbano sottoporre i loro strumenti a verifiche per accertare l'assenza di pregiudizi, pubblicare le verifiche e informare i candidati che stanno utilizzando lo strumento nel loro processo di assunzione.
Come funziona la legge?
I ricercatori della Cornell University hanno scoperto che la vaghezza della definizione di cosa siano gli AEDT e di come vengano utilizzati può essere all'origine della scarsa conformità.
I ricercatori hanno inviato 155 studenti universitari a fungere da potenziali cercatori di lavoro e hanno trovato solo 18 verifiche dei pregiudizi e 11 avvisi di trasparenza da quasi 400 datori di lavoro che hanno analizzato.
I datori di lavoro non fanno eseguire audit o non pubblicano avvisi di trasparenza perché non soddisfano la soglia definita dalla legge? Forse, ma con l'uso diffuso degli AEDT, è improbabile.
Lucas Wright, dottorando coautore dello studio, ha dichiarato: "Abbiamo scoperto che, poiché la legge lascia ai datori di lavoro la discrezionalità di determinare se la legge si applica all'uso di strumenti automatizzati di decisione sull'impiego (AEDT), possiamo solo fare affermazioni sulla conformità alla legge, non sulla non conformità".
Sebbene l'idea alla base della legge sia buona, Wright ha dichiarato: "Se da un lato la legge ha creato un mercato per i revisori indipendenti di algoritmi e ha portato a una certa trasparenza, dall'altro ha effettivamente creato incentivi per i datori di lavoro a evitare i controlli".
Gli strumenti di intelligenza artificiale saranno sempre più utilizzati per prendere decisioni di assunzione e, a meno che non vengano codificate regole rigorose, gli AEDT continueranno a perpetuare i pregiudizi presenti nei loro dati di formazione.
La LL144 è un buon inizio, ma non dice cosa dovrebbe accadere se un'AEDT non supera un audit di bias. Dice anche che chiunque può essere un auditor, purché non lavori per il datore di lavoro o per l'editore dell'AEDT.
I trasgressori della LL144 rischiano ammende comprese tra $500 e $1.500. La legge si basa sull'autoregolamentazione e non conferisce al Dipartimento per la protezione dei consumatori e dei lavoratori (DCWP) poteri di indagine o di scoperta proattiva.
Per questo motivo, il basso livello di conformità non sorprende. Se i legislatori vogliono proteggere le persone in cerca di lavoro da un'intelligenza artificiale potenzialmente difettosa che decide del loro futuro, potrebbero dover rivedere la LL144.