Alors que nous nous dirigeons vers des élections cruciales cette année, notamment les élections américaines, nous assistons à la naissance d'un jumeau maléfique de la désinformation profonde, le "dividende du menteur".
Les "deep fakes" sont des copies d'audio, de vidéo ou d'images générées par l'intelligence artificielle et incroyablement réalistes.
Il existe de nombreux exemples de "deep fakes" ayant un impact sur les personnes et la société, qu'il s'agisse d'une image du Pentagone générée par l'IA ou d'une image de la ville de New York générée par l'IA. qui ont affecté le marché boursier l'année dernière à une voix de robocall imitant le président Biden cette semaine.
Cependant, les faux profonds ne sont pas seulement utiles pour déformer la vérité, ils sont aussi excellents pour la réfuter. C'est ce que l'on appelle le "dividende du menteur", qui décrit essentiellement les avantages que l'on retire de la présentation d'un contenu authentique comme étant faux.
Par exemple, en réponse à une publicité de Fox News présentant ses maladresses publiques de l'année dernière, l'ancien président Donald Trump a affirmé que l'Union européenne n'était pas une organisation de défense des droits de l'homme. les séquences ont été créées par l'IA.
Il a dénoncé cette publicité dans un message publié sur Truth Social, en déclarant : "Les pervers et les perdants du projet Lincoln, qui a échoué et a été dissous, et d'autres, utilisent l'IA dans leurs fausses publicités télévisées pour me faire passer pour aussi mauvais et pathétique que Joe Biden le véreux, ce qui n'est pas facile à faire".
Le projet Lincoln a ensuite réfuté l'affirmation de M. Trump, soulignant que l'annonce comprenait des incidents bien documentés de sa présidence.
Libby Lange, analyste à le fournisseur de services d'analyse GraphikaL'IA déstabilise le concept même de vérité. Si tout peut être faux, et si tout le monde prétend que tout est faux ou manipulé d'une manière ou d'une autre, il n'y a plus vraiment de sens de la vérité de base".
À l'échelle mondiale, les hommes politiques utilisent désormais régulièrement l'IA comme bouc émissaire. Par exemple, une vidéo controversée d'un homme politique taïwanais suggérant une liaison extraconjugale a été rapidement rejetée comme étant potentiellement générée par l'IA.
De même, dans l'État indien du Tamil Nadu, un homme politique a réfuté une fuite d'enregistrement audio en la qualifiant de "générée par une machine", bien que son authenticité reste incertaine.
Nous avons également vu des images d'IA de crimes de guerre en Israël, en Palestine et en Ukraine, comme un bébé incinéré, que Ben Shapiro a partagé avec des millions d'adeptes avant qu'il ne soit discrédité comme faux.
Il y a également eu des exemples non politiques, comme le clip vocal d'un directeur d'école du comté de Baltimore qui aurait tenu des propos racistes. Il a été affirmé que ces propos étaient générés par l'intelligence artificielle, mais il est difficile de le confirmer sans autre contexte.
Les "deep fakes" ont fait l'objet d'une attention particulière lors de la récente conférence de l'Union européenne. Forum économique mondial de Davosmais les efforts déployés jusqu'à présent pour les endiguer ont été superficiels et inefficaces. Les entreprises technologiques explorent des moyens de vérifier automatiquement les contenus générés par l'IA, mais seuls les experts peuvent discerner de manière fiable les vrais médias des faux.
Et même les experts se trompent, car il arrive que des détecteurs d'IA spécialisés parviennent à des conclusions contestables quant à l'authenticité d'une image.
Supposons ensuite que les images soient "officiellement" classées comme vraies ou fausses, mais que le verdict soit erroné - on ne peut qu'imaginer l'enfer qui pourrait s'ensuivre.