Nous sommes bel et bien entrés dans une ère où l'on ne peut pas faire confiance à ce que l'on voit en ligne.
Bien que cette affirmation soit partiellement vraie depuis des décennies, l'IA a élevé la manipulation du contenu à de nouveaux niveaux, dépassant massivement la prise de conscience du public.
La technologie d'IA deep fake peut créer et modifier des images, des vidéos et des enregistrements audio, en mettant des mots dans la bouche de personnalités publiques ou en les faisant apparaître dans des situations qui n'ont jamais eu lieu.
Dans de nombreux cas, il faut plus qu'un deuxième coup d'œil pour déterminer l'authenticité d'un contenu, et les faux médias peuvent accumuler des millions d'impressions avant d'être identifiés.
Nous assistons aujourd'hui à des falsifications profondes qui peuvent potentiellement interrompre les processus démocratiques, bien qu'il soit trop tôt pour mesurer les effets tangibles sur le comportement des électeurs.
Examinons quelques-uns des incidents les plus notables dont nous avons été témoins à ce jour en matière d'IA politique et de "deep fake".
Joe Biden Incident du New Hampshire
Janvier 2024, A New Hampshire, US, a Robocall imitant la voix de Biden a encouragé les électeurs à "garder leur vote pour l'élection de novembre", suggérant à tort que la participation aux primaires profiterait par inadvertance à Donald Trump.
Il a été attribué au numéro de téléphone portable personnel de Kathy Sullivan, ancienne présidente du parti démocrate de l'État. Mme Sullivan a condamné cet acte qu'elle considère comme une forme flagrante d'ingérence électorale et de harcèlement personnel.
Le bureau du procureur général du New Hampshire a déclaré qu'il s'agissait d'une tentative illégale de perturber les primaires présidentielles et de supprimer la participation des électeurs.
L'audio fabriqué a été identifié comme ayant été généré à l'aide de ElevenLabs, un leader de l'industrie de la synthèse vocale.
ElevenLabs a par la suite suspendu le coupable de la fausse voix de Biden, et a déclaré : "Nous sommes déterminés à empêcher l'utilisation abusive des outils d'IA audio et prenons tout incident d'utilisation abusive très au sérieux".
Le chancelier allemand Olaf Scholz a été victime d'un faux incident grave
Novembre 2023, l'Allemagne a été témoin d'un deep fake d'IA représentant faussement le chancelier Olaf Scholz approuvant l'interdiction du parti d'extrême droite Alternative pour l'Allemagne (AfD).
Cette vidéo truquée faisait partie d'une campagne menée par un groupe d'art et d'activisme, le Centre de beauté politique (CPB)et vise à attirer l'attention sur l'influence croissante de l'AfD. Les critiques formulées à l'encontre de l'AfD s'inscrivent dans le contexte de l'histoire de l'Allemagne des années 1930.
Dirigé par le philosophe et artiste Philipp Ruch, le groupe CPB vise à créer de la "poésie politique" et de la "beauté morale", en abordant des questions contemporaines essentielles telles que les violations des droits de l'homme, la dictature et le génocide.
Le CPB s'est engagé dans de nombreux projets controversés, tels que la Installation "Search for Us" près du Bundestagqui, selon eux, contenait de la terre provenant d'anciens camps de la mort et des restes de victimes de l'Holocauste.
Alors que le soutien à l'AfD s'est accru, de nombreuses manifestations à travers l'Allemagne démontrent une forte opposition aux idéologies de l'AfD.
Un porte-parole du groupe à l'origine du "deep fake" a déclaré : "À nos yeux, l'extrémisme de droite en Allemagne qui siège au parlement est plus dangereux."
Les responsables de l'AfD ont qualifié la campagne de "deep fake" de tactique trompeuse visant à discréditer le parti et à influencer l'opinion publique.
Le premier ministre britannique Rishi Sunak impliqué dans des escroqueries
En janvier 2024, une société de recherche britannique a découvert que le Premier ministre Rishi Sunak était impliqué dans plus de 100 publicités vidéo trompeuses diffusées principalement sur Facebook, touchant environ 400 000 personnes.
Ces publicités, provenant de différents pays, dont les États-Unis, la Turquie, la Malaisie et les Philippines, faisaient la promotion de programmes d'investissement frauduleux faussement associés à des personnalités de premier plan telles qu'Elon Musk.
L'étude, menée par le service de communication en ligne société Fenimore Harpera mis en évidence le fait que les entreprises de médias sociaux ne répondent tout simplement pas à ce type de contenu dans un délai raisonnable.
Marcus Beard, fondateur de Fenimore Harper, a expliqué comment l'IA démocratise la désinformation : "Avec l'avènement du clonage de voix et de visages bon marché et facile à utiliser, il faut très peu de connaissances et d'expertise pour utiliser l'image d'une personne à des fins malveillantes".
M. Beard a également critiqué l'insuffisance de la modération des contenus sur les médias sociaux, notant que "ces publicités vont à l'encontre de plusieurs politiques publicitaires de Facebook. Cependant, très peu des publicités que nous avons rencontrées semblent avoir été supprimées".
Le gouvernement britannique a réagi au risque de fraudes profondes : "Nous travaillons intensivement au sein du gouvernement pour nous assurer que nous sommes prêts à répondre rapidement à toute menace contre nos processus démocratiques par le biais de notre groupe de travail sur la défense de la démocratie et des équipes gouvernementales dédiées.
Le premier ministre pakistanais Imran Khan participe à un rallye virtuel
En décembre 2023, l'ancien Premier ministre du Pakistan, Imran Khan, est actuellement emprisonné pour avoir divulgué des secrets d'État, est apparue lors d'un rassemblement virtuel utilisant l'IA.
Bien qu'il soit derrière les barreaux, l'avatar numérique de M. Khan a été remarquablement suivi par des millions de personnes. Le rallye contenait des séquences d'anciens discours de son parti politique, le Pakistan Tehreek-e-Insaaf (PTI).
Le discours de quatre minutes de M. Khan a parlé de résilience et de défi face à la répression politique à laquelle sont confrontés les membres du PTI.
La voix de l'IA s'est exprimée : "Notre parti n'est pas autorisé à tenir des rassemblements publics. Nos membres sont enlevés et leurs familles sont harcelées", avant d'ajouter : "L'histoire se souviendra de vos sacrifices."
Pour compliquer la situation, le gouvernement pakistanais aurait tenté de bloquer l'accès au rassemblement.
NetBlocks, une organisation de surveillance de l'internet, a déclaré : "Les mesures montrent que les principales plateformes de médias sociaux ont été restreintes au Pakistan pendant [près de] 7 heures dimanche soir lors d'un rassemblement politique en ligne ; l'incident est cohérent avec les précédents cas de censure de l'internet visant le chef de l'opposition Imran Khan et son parti, le PTI".
ℹ️ ICYMI : Les mesures montrent que les principales plateformes de médias sociaux ont été restreintes en #Pakistan pendant environ 7 heures dimanche soir lors d'un rassemblement politique en ligne ; l'incident est cohérent avec les précédents cas de censure de l'internet visant le leader de l'opposition Imran Khan et son parti, le PTI. https://t.co/AS9SdfwqoH pic.twitter.com/XXMYBhknXd
- NetBlocks (@netblocks) 18 décembre 2023
Usama Khilji, défenseur de la liberté d'expression au Pakistan, a déclaré : "Alors que le droit à la liberté d'association et d'expression du PTI est totalement bafoué par l'arrestation de ses dirigeants, l'utilisation par le parti de l'intelligence artificielle pour diffuser un discours virtuel reprenant les mots de son président et ancien Premier ministre Imran Khan marque un nouveau tournant dans l'utilisation de la technologie dans la vie politique pakistanaise."
Un faux audio de l'ex-président soudanais Omar al-Bashir sur TikTok
Une campagne utilisant l'IA sur TikTok a exploité la voix de l'ancien président soudanais Omar al-Bashir dans le contexte des troubles civils qui secouent le pays.
Depuis la fin du mois d'août 2023, un compte anonyme publie ce qu'il prétend être des "fuites d'enregistrements" d'Al-Bachir. Cependant, les analystes ont déterminé que les enregistrements étaient des faux générés par l'intelligence artificielle.
al-Bashir" est absent de la scène publique depuis qu'il a été chassé du pays en 2019 en raison de graves allégations de crimes de guerre.
Escroquerie audio le jour des élections en Slovaquie
Le jour de l'élection en Slovaquie, un audio controversé présentait de profondes contrefaçons de Michal Šimečka, chef du parti Progressive Slovakia, et de la journaliste Monika Tódová, discutant de pratiques corrompues telles que l'achat de votes.
Cette affaire a fait surface pendant le black-out médiatique préélectoral de la Slovaquie, de sorte que les personnes impliquées n'ont pas pu facilement réfuter publiquement leur implication avant l'heure.
Les deux parties impliquées ont par la suite dénoncé l'enregistrement en tant que "deep fakece qui a été confirmé par une agence de vérification des faits.
Le faux profond de Volodymyr Zelenskiy
En 2023, une fausse vidéo du président ukrainien Volodymyr Zelenskiy, qui laissait entendre de manière amateur qu'il appelait les soldats à abandonner leurs postes, a été rapidement identifiée comme fausse et supprimée par les principales plateformes de médias sociaux.
L'élection turque : un faux drame profond
À l'approche des élections législatives et présidentielles en Turquie, une vidéo montrant à tort que le principal adversaire du président Recep Tayyip Erdoğan, Kemal Kılıçdaroğlu, recevait le soutien du PKK a été diffusée en ligne.
Donald Trump : des faux profonds
Au début de l'année 2023, nous avons assisté à des simulations réalistes de Donald Trump arrêté et à une vidéo de campagne de Ron DeSantis contenant des images générées par l'IA de Trump embrassant Anthony Fauci.
Le parti politique belge a fait une fausse déclaration sur Trump
Un précédent incident survenu en 2018 en Belgique a suscité un tollé politique lorsqu'une vidéo profondément truquée créée par un parti politique a provoqué un tollé général.
La vidéo montrait faussement le président Donald Trump conseillant à la Belgique de se retirer de l'accord de Paris sur le climat.
La vidéo faisait partie d'une falsification de haute technologie, qui a été reconnue plus tard par l'équipe médiatique du parti. Elle a démontré à quel point les faux peuvent être utilisés pour fabriquer des déclarations de dirigeants mondiaux afin d'influencer l'opinion publique et la politique.
Le faux profond de Nancy Pelosi
Une vidéo manipulée de Nancy Pelosi en 2020, donnant l'impression qu'elle s'exprime mal et qu'elle est en état d'ébriété, s'est rapidement répandue sur les médias sociaux.
Cela a démontré le potentiel des deep fakes pour discréditer et embarrasser les personnalités publiques, potentiel qui persiste souvent après que le contenu a été considéré comme faux.
Audio deepfake de Keir Starmer
Un autre incident survenu dans la vie politique britannique concerne un clip audio dans lequel on voit le chef de l'opposition, Sir Keir Starmer, injurier son personnel.
Le clip, qui a largement circulé sur les réseaux sociaux, s'est révélé par la suite être un "deep fake" généré par l'intelligence artificielle.
À mesure que les entreprises technologiques explorent les moyens de s'attaquer aux "deep fakes" à grande échelle, les modèles d'IA utilisés pour créer des médias truqués deviendront de plus en plus sophistiqués et de plus en plus faciles à utiliser.
Le chemin à parcourir exige un effort de collaboration entre les technologues, les décideurs politiques et le public pour exploiter les avantages de l'IA tout en préservant les piliers de notre société que sont la confiance et l'intégrité.
La confiance dans la politique et les institutions publiques est déjà fragile, c'est le moins que l'on puisse dire. Les contrefaçons profondes ne feront que l'ébranler davantage.