Des chercheurs de l'université de Würzburg et de l'Institut Max-Planck pour le développement humain ont entraîné un modèle d'IA à détecter les mensonges, ce qui pourrait bouleverser nos relations avec les autres.
Les humains ne sont pas très doués pour déterminer si une personne ment ou dit la vérité. Les expériences montrent que notre taux de réussite est d'environ 50% dans le meilleur des cas et cette faible performance dicte la façon dont nous nous engageons les uns avec les autres.
Selon la théorie de la vérité par défaut (TDT), les gens supposent généralement que ce qu'une personne leur dit est vrai. Le coût social de traiter la personne de menteur est un risque trop important compte tenu de notre capacité de détection des mensonges (50/50) et la vérification des faits n'est pas toujours pratique sur le moment.
Les polygraphes et autres techniques de détection des mensonges peuvent détecter des données telles que les indicateurs de stress et les mouvements oculaires, mais il est peu probable que vous utilisiez l'un d'entre eux lors de votre prochaine conversation. L'IA pourrait-elle vous aider ?
Le document explique comment l'équipe de recherche a entraîné le BERT LLM de Google à détecter les mensonges.
Les chercheurs ont recruté 986 participants et leur ont demandé de décrire leurs projets pour le week-end, avec une explication complémentaire pour confirmer la véracité de leur déclaration.
On leur a ensuite présenté les projets d'un autre participant pour le week-end et on leur a demandé de rédiger une fausse déclaration soutenant qu'il s'agissait en fait de leurs projets pour le week-end.
L'ORET a été formé sur 80% des 1 536 déclarations et a ensuite été chargé d'évaluer la véracité du reste des déclarations.
Le modèle a été en mesure de qualifier une déclaration de vraie ou de fausse avec une précision de 66,86%, ce qui est nettement mieux que les juges humains qui ont obtenu un taux de précision de 46,47% lors d'expériences ultérieures.
Utiliseriez-vous un détecteur de mensonges à base d'IA ?
Les chercheurs ont constaté que lorsque les participants avaient la possibilité d'utiliser le modèle de détection de mensonges de l'IA, seul un tiers d'entre eux décidait d'accepter l'offre.
Ceux qui ont choisi d'utiliser l'algorithme ont presque toujours suivi la prédiction de l'algorithme en acceptant la déclaration comme vraie ou en l'accusant de mensonge.
Les participants qui ont demandé des prédictions algorithmiques ont affiché des taux d'accusation de près de 85% lorsqu'ils ont suggéré que l'affirmation était fausse. Le taux de référence de ceux qui n'ont pas demandé de prédictions automatiques était de 19,71%.
Les personnes ouvertes à l'idée d'un détecteur de mensonges à base d'IA sont plus susceptibles de dire que c'est faux lorsqu'elles voient le voyant rouge clignoter.
Les chercheurs suggèrent que "l'une des explications plausibles est qu'un algorithme de détection des mensonges disponible offre la possibilité de transférer la responsabilité des accusations de soi-même au système d'apprentissage automatique".
Je ne vous traite pas de menteur, c'est la machine qui le fait.
Cela change tout
Que se passerait-il dans nos sociétés si les gens étaient quatre fois plus susceptibles de se traiter mutuellement de menteurs ?
Les chercheurs ont conclu que si les gens se fiaient à l'IA comme arbitre de la vérité, elle pourrait avoir un fort potentiel perturbateur.
Le document note que "des taux d'accusation élevés peuvent mettre à rude épreuve notre tissu social en favorisant une méfiance généralisée et en renforçant la polarisation entre des groupes qui ont déjà du mal à se faire confiance".
Un détecteur de mensonges précis aurait également des effets positifs. Il pourrait identifier la désinformation générée par l'IA et les "fake news", faciliter les négociations commerciales ou lutter contre la fraude à l'assurance.
Qu'en est-il de l'éthique de l'utilisation d'un tel outil ? Les agents des frontières pourraient-ils l'utiliser pour déterminer si la demande d'asile d'un migrant est vraie ou s'il s'agit d'une fabrication opportuniste ?
Des modèles plus avancés que le BERT permettront probablement à l'IA de détecter les mensonges avec une précision telle que les tentatives de tromperie de l'homme deviendront trop faciles à repérer.
Les chercheurs ont conclu que leur "recherche souligne le besoin urgent d'un cadre politique global pour traiter l'impact des algorithmes de détection de mensonges alimentés par l'IA".