Un détecteur de mensonges à base d'IA surpasse les humains et pourrait perturber la société

8 juillet 2024

  • Les chercheurs ont formé un LLM pour qu'il détecte avec précision si les affirmations sont vraies ou fausses.
  • Le modèle a détecté les fausses déclarations dans 67% des cas, ce qui est supérieur à la précision humaine d'environ 50%.
  • Les détecteurs de mensonges à base d'IA pourraient entraîner une augmentation des accusations et de nouveaux défis sociaux, juridiques et éthiques.

Des chercheurs de l'université de Würzburg et de l'Institut Max-Planck pour le développement humain ont entraîné un modèle d'IA à détecter les mensonges, ce qui pourrait bouleverser nos relations avec les autres.

Les humains ne sont pas très doués pour déterminer si une personne ment ou dit la vérité. Les expériences montrent que notre taux de réussite est d'environ 50% dans le meilleur des cas et cette faible performance dicte la façon dont nous nous engageons les uns avec les autres.

Selon la théorie de la vérité par défaut (TDT), les gens supposent généralement que ce qu'une personne leur dit est vrai. Le coût social de traiter la personne de menteur est un risque trop important compte tenu de notre capacité de détection des mensonges (50/50) et la vérification des faits n'est pas toujours pratique sur le moment.

Les polygraphes et autres techniques de détection des mensonges peuvent détecter des données telles que les indicateurs de stress et les mouvements oculaires, mais il est peu probable que vous utilisiez l'un d'entre eux lors de votre prochaine conversation. L'IA pourrait-elle vous aider ?

Le document explique comment l'équipe de recherche a entraîné le BERT LLM de Google à détecter les mensonges.

Les chercheurs ont recruté 986 participants et leur ont demandé de décrire leurs projets pour le week-end, avec une explication complémentaire pour confirmer la véracité de leur déclaration.

On leur a ensuite présenté les projets d'un autre participant pour le week-end et on leur a demandé de rédiger une fausse déclaration soutenant qu'il s'agissait en fait de leurs projets pour le week-end.

L'ORET a été formé sur 80% des 1 536 déclarations et a ensuite été chargé d'évaluer la véracité du reste des déclarations.

Le modèle a été en mesure de qualifier une déclaration de vraie ou de fausse avec une précision de 66,86%, ce qui est nettement mieux que les juges humains qui ont obtenu un taux de précision de 46,47% lors d'expériences ultérieures.

Utiliseriez-vous un détecteur de mensonges à base d'IA ?

Les chercheurs ont constaté que lorsque les participants avaient la possibilité d'utiliser le modèle de détection de mensonges de l'IA, seul un tiers d'entre eux décidait d'accepter l'offre.

Ceux qui ont choisi d'utiliser l'algorithme ont presque toujours suivi la prédiction de l'algorithme en acceptant la déclaration comme vraie ou en l'accusant de mensonge.

Les participants qui ont demandé des prédictions algorithmiques ont affiché des taux d'accusation de près de 85% lorsqu'ils ont suggéré que l'affirmation était fausse. Le taux de référence de ceux qui n'ont pas demandé de prédictions automatiques était de 19,71%.

Les personnes ouvertes à l'idée d'un détecteur de mensonges à base d'IA sont plus susceptibles de dire que c'est faux lorsqu'elles voient le voyant rouge clignoter.

Les chercheurs suggèrent que "l'une des explications plausibles est qu'un algorithme de détection des mensonges disponible offre la possibilité de transférer la responsabilité des accusations de soi-même au système d'apprentissage automatique".

Je ne vous traite pas de menteur, c'est la machine qui le fait.

Cela change tout

Que se passerait-il dans nos sociétés si les gens étaient quatre fois plus susceptibles de se traiter mutuellement de menteurs ?

Les chercheurs ont conclu que si les gens se fiaient à l'IA comme arbitre de la vérité, elle pourrait avoir un fort potentiel perturbateur.

Le document note que "des taux d'accusation élevés peuvent mettre à rude épreuve notre tissu social en favorisant une méfiance généralisée et en renforçant la polarisation entre des groupes qui ont déjà du mal à se faire confiance".

Un détecteur de mensonges précis aurait également des effets positifs. Il pourrait identifier la désinformation générée par l'IA et les "fake news", faciliter les négociations commerciales ou lutter contre la fraude à l'assurance.

Qu'en est-il de l'éthique de l'utilisation d'un tel outil ? Les agents des frontières pourraient-ils l'utiliser pour déterminer si la demande d'asile d'un migrant est vraie ou s'il s'agit d'une fabrication opportuniste ?

Des modèles plus avancés que le BERT permettront probablement à l'IA de détecter les mensonges avec une précision telle que les tentatives de tromperie de l'homme deviendront trop faciles à repérer.

Les chercheurs ont conclu que leur "recherche souligne le besoin urgent d'un cadre politique global pour traiter l'impact des algorithmes de détection de mensonges alimentés par l'IA".

Rejoindre l'avenir


SOUSCRIRE AUJOURD'HUI

Clair, concis, complet. Maîtrisez les développements de l'IA avec DailyAI

Eugène van der Watt

Eugene a une formation d'ingénieur en électronique et adore tout ce qui touche à la technologie. Lorsqu'il fait une pause dans sa consommation d'informations sur l'IA, vous le trouverez à la table de snooker.

×

PDF GRATUIT EXCLUSIF
Gardez une longueur d'avance avec DailyAI

Inscrivez-vous à notre newsletter hebdomadaire et recevez un accès exclusif au dernier eBook de DailyAI : 'Mastering AI Tools : Your 2024 Guide to Enhanced Productivity" (Maîtriser les outils de l'IA : votre guide 2024 pour une meilleure productivité).

*En vous abonnant à notre lettre d'information, vous acceptez nos conditions d'utilisation. Politique de confidentialité et notre Conditions générales d'utilisation