O detetor de mentiras da IA é melhor do que o dos humanos e pode ser um fator de perturbação social

8 de julho de 2024

  • Os investigadores treinaram um LLM para detetar com precisão se as afirmações eram verdadeiras ou falsas
  • O modelo detectou afirmações falsas 67% do tempo, melhor do que a precisão humana de aproximadamente 50%
  • Os detectores de mentiras com IA poderão conduzir a um aumento das acusações e a novos desafios sociais, jurídicos e éticos

Investigadores da Universidade de Würzburg e do Instituto Max-Planck para o Desenvolvimento Humano treinaram um modelo de IA para detetar mentiras e isso poderá perturbar a forma como nos relacionamos uns com os outros.

Os seres humanos não são muito bons a dizer se uma pessoa está a mentir ou a dizer a verdade. As experiências mostram que a nossa taxa de acerto é de cerca de 50% na melhor das hipóteses e este fraco desempenho dita a forma como nos relacionamos uns com os outros.

A teoria da verdade por defeito (TDT) diz que as pessoas assumem normalmente que o que uma pessoa lhes diz é verdade. O custo social de chamar a pessoa de mentirosa é um risco demasiado grande com a nossa capacidade de deteção de mentiras de 50/50 e a verificação de factos nem sempre é prática no momento.

Os polígrafos e outras tecnologias de deteção de mentiras podem detetar dados como indicadores de stress e movimentos oculares, mas não é provável que utilize um deles na sua próxima conversa. Será que a IA pode ajudar?

O jornal explica como a equipa de investigação treinou o BERT LLM da Google para detetar quando as pessoas estavam a mentir.

Os investigadores recrutaram 986 participantes e pediram-lhes que descrevessem os seus planos para o fim de semana, acompanhados de uma explicação que sustentasse a veracidade da sua declaração.

Em seguida, foram-lhes apresentados os planos para o fim de semana de outro participante e foi-lhes pedido que escrevessem uma afirmação falsa, argumentando que esses planos eram, de facto, os seus planos para o fim de semana.

O BERT foi treinado em 80% das 1.536 declarações e foi depois encarregado de avaliar a veracidade do resto das declarações.

O modelo foi capaz de classificar com precisão uma afirmação como verdadeira ou falsa com uma exatidão de 66,86%, significativamente melhor do que os juízes humanos que alcançaram uma taxa de exatidão de 46,47% em outras experiências.

Usaria um detetor de mentiras com IA?

Os investigadores descobriram que, quando foi apresentada aos participantes a opção de utilizar o modelo de deteção de mentiras da IA, apenas um terço decidiu aceitar a oferta.

Aqueles que optaram por utilizar o algoritmo seguiram quase sempre a previsão algorítmica, aceitando a afirmação como verdadeira ou fazendo uma acusação de mentira.

Os participantes que procuraram previsões algorítmicas demonstraram taxas de acusação de quase 85% quando sugeriam que a afirmação era falsa. A linha de base dos participantes que não solicitaram previsões algorítmicas foi de 19,71%.

As pessoas que estão abertas à ideia de um detetor de mentiras com IA têm mais probabilidades de dizer que não é verdade quando vêem a luz vermelha a piscar.

Os investigadores sugerem que "uma explicação plausível é que um algoritmo de deteção de mentiras disponível oferece a oportunidade de transferir a responsabilidade pelas acusações do próprio para o sistema de aprendizagem automática".

Não estou a chamar-lhe mentiroso, a máquina é que está".

Isto muda tudo

O que aconteceria nas nossas sociedades se as pessoas tivessem 4 vezes mais probabilidades de começar a chamar mentirosas umas às outras?

Os investigadores concluíram que, se as pessoas confiassem na IA para ser o árbitro da verdade, esta poderia ter um forte potencial de perturbação.

O documento refere que "as elevadas taxas de acusação podem prejudicar o nosso tecido social, fomentando a desconfiança generalizada e aumentando ainda mais a polarização entre grupos que já têm dificuldade em confiar uns nos outros".

Um detetor de mentiras de IA preciso teria também impactos positivos. Poderia identificar a desinformação e as notícias falsas geradas pela IA, ajudar nas negociações comerciais ou combater a fraude nos seguros.

E quanto à ética da utilização de uma ferramenta como esta? Poderiam os agentes fronteiriços utilizá-la para detetar se o pedido de asilo de um migrante era verdadeiro ou uma invenção oportunista?

Modelos mais avançados do que o BERT irão provavelmente aumentar a precisão da deteção de mentiras da IA até um ponto em que as tentativas humanas de enganar se tornem demasiado fáceis de detetar.

Os investigadores concluíram que a sua "investigação sublinha a necessidade urgente de um quadro político abrangente para fazer face ao impacto dos algoritmos de deteção de mentiras baseados em IA".

Junte-se ao futuro


SUBSCREVER HOJE

Claro, conciso e abrangente. Fique a par dos desenvolvimentos da IA com DailyAI

Eugene van der Watt

Eugene vem de uma formação em engenharia eletrónica e adora tudo o que é tecnologia. Quando faz uma pausa no consumo de notícias sobre IA, pode encontrá-lo à mesa de snooker.

×

PDF GRATUITO EXCLUSIVO
Fique à frente com o DailyAI

Subscreva a nossa newsletter semanal e receba acesso exclusivo ao último livro eletrónico do DailyAI: 'Mastering AI Tools: Seu guia 2024 para aumentar a produtividade'.

*Ao subscrever a nossa newsletter, aceita a nossa Política de privacidade e o nosso Termos e condições