New York City er blevet den første by i verden, som har vedtaget en lov, der regulerer brugen af automatiserede beslutningsværktøjer (AEDT'er). Forskere fra Cornell University fandt ud af, at vanskeligheder med fortolkning og håndhævelse af loven resulterer i, at kun få virksomheder holder sig til reglerne.
AEDT'er bruger maskinlæring, statistisk modellering, dataanalyse eller kunstig intelligens til at hjælpe arbejdsgivere og vikarbureauer med at beslutte, hvilken ansøger der skal ansættes, samtidig med at de erstatter skønsmæssig beslutningstagning.
Disse værktøjer bruger AI til at behandle bunker af CV'er, analysere følelser eller psykologiske faktorer fra et interview og en lang række andre faktorer for til sidst at sige: "Ansæt denne fyr".
Med de iboende bias i AI-modeller kan AEDT'er udvise bias i deres udvælgelse af de jobkandidater, de anbefaler, derfor indførelsen af Lokal lov 144 (LL144).
Loven, som blev vedtaget den 1. januar 2023 med håndhævelse fra juli sidste år, har til formål at bekæmpe den potentielle skade, som brugen af AEDT'er kan medføre for marginaliserede jobsøgere.
Loven siger, at arbejdsgivere i New York City kan bruge AEDT'er, men de skal få deres værktøjer revideret for bias, offentliggøre revisionerne og informere jobansøgere om, at de bruger værktøjet i deres ansættelsesproces.
Hvordan går det med loven?
Forskere fra Cornell University fandt at uklarheden i definitionen af, hvad AEDT'er er, og hvordan de bruges, kan være årsagen til den meget lave overholdelse.
Forskerne sendte 155 bachelorstuderende ud for at agere potentielle jobsøgere og fandt kun 18 bias audits og 11 transparensmeddelelser fra næsten 400 arbejdsgivere, som de analyserede.
Får arbejdsgivere ikke foretaget audits eller offentliggjort meddelelser om gennemsigtighed, fordi de ikke opfylder lovens tærskel? Måske, men med den rapporterede udbredte brug af AEDT'er er det usandsynligt.
Lucas Wright, en ph.d.-kandidat, der var medforfatter til undersøgelsen, sagde: "Vi fandt ud af, at fordi loven giver arbejdsgiverne mulighed for at afgøre, om loven gælder for deres brug af automatiserede værktøjer til at træffe ansættelsesbeslutninger (AEDT'er), kan vi kun sige noget om overholdelse af loven, ikke om manglende overholdelse."
Selv om ideen bag loven var god, sagde Wright: "Mens loven har skabt et marked for uafhængige algoritmeauditører og ført til en vis gennemsigtighed, har den faktisk skabt incitamenter for arbejdsgivere til at undgå auditering."
AI-værktøjer vil i stigende grad blive brugt til at træffe ansættelsesbeslutninger, og medmindre der kodes strenge regler ind i dem, vil AEDT'er fortsætte med at fastholde fordomme, der var i deres træningsdata.
LL144 er en god start, men den siger ikke, hvad der skal ske, hvis en AEDT ikke består en bias-audit. Der står også, at alle kan være auditorer, så længe de ikke arbejder for arbejdsgiveren eller udgiveren af AEDT'en.
Overtrædelser af LL144 medfører bøder på mellem $500 og $1.500. Loven bygger på selvregulering og giver ikke Department of Consumer and Worker Protection (DCWP) proaktive undersøgelses- eller opdagelsesbeføjelser.
Derfor er den lave grad af overholdelse ikke overraskende. Hvis lovgiverne ønsker at beskytte jobsøgende mod en potentielt fejlbehæftet AI, der bestemmer deres fremtid, skal de måske se på LL144 igen.