Un detector de mentiras con IA supera a los humanos y podría ser socialmente disruptivo

8 de julio de 2024

  • Los investigadores entrenaron a un LLM para detectar con precisión si las afirmaciones eran verdaderas o falsas
  • El modelo detectó declaraciones falsas el 67% de las veces, mejor que la precisión humana de aproximadamente 50%
  • Los detectores de mentiras por IA podrían provocar un aumento de las acusaciones y nuevos retos sociales, jurídicos y éticos

Investigadores de la Universidad de Würzburg y del Instituto Max-Planck para el Desarrollo Humano han entrenado a un modelo de inteligencia artificial para detectar mentiras, lo que podría alterar nuestra forma de relacionarnos.

A los humanos no se nos da bien saber si una persona miente o dice la verdad. Los experimentos demuestran que, en el mejor de los casos, nuestra tasa de acierto ronda los 50%, y este pobre rendimiento dicta nuestra forma de relacionarnos.

La teoría de la verdad por defecto (TDT) dice que la gente suele asumir que lo que una persona le dice es cierto. El coste social de llamar mentirosa a una persona es un riesgo demasiado grande con nuestra capacidad de detección de mentiras al 50/50 y la comprobación de los hechos no siempre es práctica en el momento.

Los polígrafos y otras tecnologías de detección de mentiras pueden captar datos como indicadores de estrés y movimientos oculares, pero no es probable que utilices uno de ellos en tu próxima conversación. ¿Podría ayudar la IA?

El periódico explica cómo el equipo de investigación entrenó al BERT LLM de Google para detectar cuándo la gente mentía.

Los investigadores reclutaron a 986 participantes y les pidieron que describieran sus planes para el fin de semana con una explicación complementaria que respaldara la veracidad de su afirmación.

A continuación, se les presentaban los planes de fin de semana de otro participante y se les pedía que escribieran una declaración de apoyo falsa argumentando que esos eran en realidad sus planes para el fin de semana.

BERT fue entrenado en 80% de las 1.536 declaraciones y luego se le encargó evaluar la veracidad del resto de las declaraciones.

El modelo fue capaz de etiquetar correctamente una afirmación como verdadera o falsa con una precisión de 66,86%, significativamente mejor que la de los jueces humanos, que alcanzaron una tasa de precisión de 46,47% en experimentos posteriores.

¿Usarías un detector de mentiras con inteligencia artificial?

Los investigadores descubrieron que cuando se presentaba a los participantes la opción de utilizar el modelo de detección de mentiras de la IA, sólo un tercio decidía aceptar la oferta.

Los que optaron por utilizar el algoritmo casi siempre siguieron la predicción algorítmica al aceptar la afirmación como verdadera o hacer una acusación de mentir.

Los participantes que solicitaron predicciones algorítmicas mostraron tasas de acusación de casi 85% cuando sugería que la afirmación era falsa. La línea de base de los que no solicitaron predicciones de la máquina fue de 19,71%.

Las personas que están abiertas a la idea de un detector de mentiras de inteligencia artificial son más propensas a decir que es mentira cuando ven la luz roja parpadear.

Los investigadores sugieren que "una explicación plausible es que un algoritmo de detección de mentiras disponible ofrece la oportunidad de transferir la responsabilidad de las acusaciones de uno mismo al sistema de aprendizaje automático".

'No te estoy llamando mentiroso, es la máquina'.

Esto lo cambia todo

¿Qué pasaría en nuestras sociedades si la gente tuviera 4 veces más probabilidades de empezar a llamarse mentirosos unos a otros?

Los investigadores concluyeron que si la gente confiara en la IA como árbitro de la verdad, podría tener un fuerte potencial perturbador.

El documento señalaba que "los altos índices de acusación pueden tensar nuestro tejido social al fomentar la desconfianza generalizada y aumentar aún más la polarización entre grupos a los que ya les resulta difícil confiar los unos en los otros".

Un detector de mentiras preciso también tendría efectos positivos. Podría identificar la desinformación generada por la IA y las noticias falsas, ayudar en las negociaciones comerciales o combatir el fraude en los seguros.

¿Qué hay de la ética en el uso de una herramienta como ésta? ¿Podrían utilizarla los agentes fronterizos para detectar si la solicitud de asilo de un inmigrante es cierta o una invención oportunista?

Es probable que modelos más avanzados que el BERT lleven la precisión de la IA en la detección de mentiras a un punto en el que los intentos de engaño humanos resulten demasiado fáciles de detectar.

Los investigadores concluyeron que su "investigación subraya la urgente necesidad de un marco político integral para abordar el impacto de los algoritmos de detección de mentiras impulsados por IA."

Únete al futuro


SUSCRÍBETE HOY

Claro, conciso y completo. Conozca los avances de la IA con DailyAI

Eugene van der Watt

Eugene es ingeniero electrónico y le encanta todo lo relacionado con la tecnología. Cuando descansa de consumir noticias sobre IA, lo encontrará jugando al billar.

×

PDF GRATUITO EXCLUSIVO
Adelántese con DailyAI

Suscríbase a nuestro boletín semanal y reciba acceso exclusivo al último eBook de DailyAI: 'Mastering AI Tools: Su guía 2024 para mejorar la productividad'.

*Al suscribirse a nuestro boletín de noticias, acepta nuestra política de privacidad. Política de privacidad y nuestro Condiciones generales