A Casa Branca recrutou recentemente piratas informáticos para analisar a tecnologia de IA.
Esta ação fez parte de um vasto desafio público de red-teaming organizado durante o Def Con convenção de hackers em Las Vegas.
O conceito de "red-teaming" - realização de testes agressivos para descobrir preconceitos e imprecisões tecnológicas - é geralmente um assunto interno.
No entanto, a omnipresença de IAs públicas, como o ChatGPT, está a pressionar os programadores para que exponham as suas ferramentas a um escrutínio intenso, o que a Casa Branca também tem vindo a solicitar.
Na Def Con deste ano, a tecnologia de IA de gigantes tecnológicos como a Google e a OpenAI foi colocada sob os holofotes enquanto os hackers tentavam expor questões de preconceito e discriminação.
A sessão contou com a presença de Arati Prabhakar, directora do Gabinete de Política Científica e Tecnológica da Casa Branca.
Kelsey Davis, fundadora e directora executiva da empresa de tecnologia CLLCTVE, estava entre as centenas de hackers que participaram no desafio.
Davis explicou o seu entusiasmo com o evento à NPR, dizendo: "Esta é uma forma muito fixe de arregaçar as mangas. Estamos a ajudar o processo de construção de algo mais equitativo e inclusivo".
Travar o enviesamento da IA
Davis centrou-se na exposição de estereótipos demográficos nas respostas da IA.
Embora o chatbot tenha respondido corretamente a certas perguntas, mostrou um preconceito racial evidente quando lhe foi apresentado um cenário sobre a frequência de uma faculdade ou universidade historicamente negra (HBCU).
"Isso é bom - significa que fui eu que o estraguei", comentou Davis depois de o chatbot de IA ter mostrado preconceitos estereotipados. Desde então, apresentou as suas conclusões, que serão tidas em conta para aperfeiçoar ainda mais a tecnologia.
O compromisso da Casa Branca sublinha a importância crucial da equipa vermelha no combate ao preconceito da IA.
Prabhakar explicou: "Este desafio tem muitas das peças que precisamos de ver. É estruturado, é independente, é um relatório responsável e traz para a mesa muitas pessoas diferentes com muitos antecedentes diferentes".
O enviesamento da IA é um problema muito real para muitas pessoas. Por exemplo, verificou-se que uma ferramenta de recrutamento da Amazon penalizava as candidaturas de mulheres e pelo menos cinco homens negros foram presos nos EUA devido a falso reconhecimento facial jogos.
Os investigadores que trabalham para expor a parcialidade da IA consideram frequentemente que o problema tem origem nos dados de formação, que são muitas vezes pouco representativos da diversidade demográfica que a IA é suposto servir.
Os organizadores da Def Con fizeram esforços concertados para garantir um grupo diversificado de participantes no desafio da equipa vermelha, estabelecendo parcerias com faculdades comunitárias e organizações sem fins lucrativos como a Black Tech Street.
Tyrance Billingsley, fundador da Black Tech Street, afirmou: "A IA é fundamental. E nós precisamos de estar aqui".
Nos próximos meses, as empresas tecnológicas analisarão as propostas de desafio e tentarão efetuar os ajustes necessários aos seus modelos de IA para atenuar os preconceitos.