A cidade de Nova Iorque foi a primeira no mundo a adotar uma lei que regulamenta a utilização de ferramentas automatizadas de decisão de emprego (AEDT). Os investigadores da Universidade de Cornell descobriram que as dificuldades de interpretação e aplicação da lei levam a que poucas empresas cumpram as regras.
As AEDT utilizam a aprendizagem automática, a modelação estatística, a análise de dados ou a inteligência artificial para ajudar os empregadores e as agências de emprego a decidir qual o candidato a contratar, substituindo a tomada de decisões discricionárias.
Estas ferramentas utilizam a IA para processar pilhas de currículos, analisar sentimentos ou factores psicológicos de uma entrevista e uma série de outros factores para eventualmente dizer: "Contrate este tipo".
Com os preconceitos inerentes aos modelos de IA, os AEDT podem manifestar preconceitos na seleção dos candidatos a emprego que recomendam, daí a introdução de Lei local 144 (LL144).
A lei, que foi promulgada em 1 de janeiro de 2023 e cuja aplicação teve início em julho passado, visa combater os potenciais danos que a utilização de AEDTs pode causar aos candidatos a emprego marginalizados.
A lei diz que as entidades patronais da cidade de Nova Iorque podem utilizar AEDTs, mas têm de mandar auditar as suas ferramentas para detetar preconceitos, publicar as auditorias e informar os candidatos a emprego de que estão a utilizar a ferramenta no seu processo de contratação.
Como é que a lei está a funcionar?
Os investigadores da Universidade de Cornell descobriram que a imprecisão na definição do que são os AEDT e do modo como são utilizados pode estar na origem de um cumprimento muito baixo.
Os investigadores enviaram 155 estudantes universitários para actuarem como potenciais candidatos a emprego e encontraram apenas 18 auditorias de preconceitos e 11 avisos de transparência de quase 400 empregadores que analisaram.
Estarão os empregadores a não efetuar auditorias ou a não publicar avisos de transparência porque não cumprem o limiar definido pela lei? Talvez, mas com a utilização generalizada de AEDTs, é pouco provável.
Lucas Wright, candidato a doutoramento e coautor do estudo, afirmou: "Descobrimos que, uma vez que a lei deixa ao critério dos empregadores determinar se a lei se aplica à sua utilização de ferramentas automatizadas de decisão em matéria de emprego (AEDT), só podemos fazer afirmações sobre o cumprimento da lei e não sobre o seu incumprimento".
Embora a ideia subjacente à lei fosse boa, Wright afirmou: "Embora a lei tenha criado um mercado para auditores independentes de algoritmos e conduzido a alguma transparência, na realidade criou incentivos para os empregadores evitarem a auditoria".
As ferramentas de IA vão ser cada vez mais utilizadas para tomar decisões de contratação e, a menos que sejam codificadas regras rigorosas, as AEDT continuarão a perpetuar preconceitos que estavam nos seus dados de formação.
A LL144 é um bom começo, mas não diz o que deve acontecer se um AEDT falhar numa auditoria de parcialidade. Também diz que qualquer pessoa pode ser um auditor, desde que não trabalhe para o empregador ou para o editor do AEDT.
Os infractores da LL144 estão sujeitos a coimas entre $500 e $1.500. A lei baseia-se na autorregulação e não confere ao Departamento de Proteção do Consumidor e do Trabalhador (DCWP) poderes proactivos de investigação ou de descoberta.
Este facto faz com que o baixo nível de conformidade não seja surpreendente. Se os legisladores quiserem proteger os candidatos a emprego de uma IA potencialmente defeituosa que decide o seu futuro, talvez seja necessário rever a LL144.