Investigadores da Universidade de Würzburg e do Instituto Max-Planck para o Desenvolvimento Humano treinaram um modelo de IA para detetar mentiras e isso poderá perturbar a forma como nos relacionamos uns com os outros.
Os seres humanos não são muito bons a dizer se uma pessoa está a mentir ou a dizer a verdade. As experiências mostram que a nossa taxa de acerto é de cerca de 50% na melhor das hipóteses e este fraco desempenho dita a forma como nos relacionamos uns com os outros.
A teoria da verdade por defeito (TDT) diz que as pessoas assumem normalmente que o que uma pessoa lhes diz é verdade. O custo social de chamar a pessoa de mentirosa é um risco demasiado grande com a nossa capacidade de deteção de mentiras de 50/50 e a verificação de factos nem sempre é prática no momento.
Os polígrafos e outras tecnologias de deteção de mentiras podem detetar dados como indicadores de stress e movimentos oculares, mas não é provável que utilize um deles na sua próxima conversa. Será que a IA pode ajudar?
O jornal explica como a equipa de investigação treinou o BERT LLM da Google para detetar quando as pessoas estavam a mentir.
Os investigadores recrutaram 986 participantes e pediram-lhes que descrevessem os seus planos para o fim de semana, acompanhados de uma explicação que sustentasse a veracidade da sua declaração.
Em seguida, foram-lhes apresentados os planos para o fim de semana de outro participante e foi-lhes pedido que escrevessem uma afirmação falsa, argumentando que esses planos eram, de facto, os seus planos para o fim de semana.
O BERT foi treinado em 80% das 1.536 declarações e foi depois encarregado de avaliar a veracidade do resto das declarações.
O modelo foi capaz de classificar com precisão uma afirmação como verdadeira ou falsa com uma exatidão de 66,86%, significativamente melhor do que os juízes humanos que alcançaram uma taxa de exatidão de 46,47% em outras experiências.
Usaria um detetor de mentiras com IA?
Os investigadores descobriram que, quando foi apresentada aos participantes a opção de utilizar o modelo de deteção de mentiras da IA, apenas um terço decidiu aceitar a oferta.
Aqueles que optaram por utilizar o algoritmo seguiram quase sempre a previsão algorítmica, aceitando a afirmação como verdadeira ou fazendo uma acusação de mentira.
Os participantes que procuraram previsões algorítmicas demonstraram taxas de acusação de quase 85% quando sugeriam que a afirmação era falsa. A linha de base dos participantes que não solicitaram previsões algorítmicas foi de 19,71%.
As pessoas que estão abertas à ideia de um detetor de mentiras com IA têm mais probabilidades de dizer que não é verdade quando vêem a luz vermelha a piscar.
Os investigadores sugerem que "uma explicação plausível é que um algoritmo de deteção de mentiras disponível oferece a oportunidade de transferir a responsabilidade pelas acusações do próprio para o sistema de aprendizagem automática".
Não estou a chamar-lhe mentiroso, a máquina é que está".
Isto muda tudo
O que aconteceria nas nossas sociedades se as pessoas tivessem 4 vezes mais probabilidades de começar a chamar mentirosas umas às outras?
Os investigadores concluíram que, se as pessoas confiassem na IA para ser o árbitro da verdade, esta poderia ter um forte potencial de perturbação.
O documento refere que "as elevadas taxas de acusação podem prejudicar o nosso tecido social, fomentando a desconfiança generalizada e aumentando ainda mais a polarização entre grupos que já têm dificuldade em confiar uns nos outros".
Um detetor de mentiras de IA preciso teria também impactos positivos. Poderia identificar a desinformação e as notícias falsas geradas pela IA, ajudar nas negociações comerciais ou combater a fraude nos seguros.
E quanto à ética da utilização de uma ferramenta como esta? Poderiam os agentes fronteiriços utilizá-la para detetar se o pedido de asilo de um migrante era verdadeiro ou uma invenção oportunista?
Modelos mais avançados do que o BERT irão provavelmente aumentar a precisão da deteção de mentiras da IA até um ponto em que as tentativas humanas de enganar se tornem demasiado fáceis de detetar.
Os investigadores concluíram que a sua "investigação sublinha a necessidade urgente de um quadro político abrangente para fazer face ao impacto dos algoritmos de deteção de mentiras baseados em IA".