Un enregistrement audio controversé a fait surface sur Facebook quelques heures après sa publication le jour des élections en Slovaquie.
On y entendait des voix censées appartenir à Michal Šimečka, le chef du parti Progressive Slovakia, et à Monika Tódová, du journal Denník N.
La conversation a porté sur le trucage des élections et l'achat de votes auprès de la minorité rom, suscitant des craintes de corruption et une certaine confusion sur les réseaux sociaux.
L'enregistrement a été rapidement réfuté comme faux par Šimečka et Denník N. Le site de vérification des faits de l'Agence France-Presse (AFP) a indiqué des signes de manipulation de l'IA dans l'audio et a ensuite été rapporté par des organes de presse internationaux.
Compte tenu du délai - 48 heures de silence médiatique avant l'élection - il était difficile de réfuter le message à temps.
Le parti Smer-SD, dirigé par l'ancien premier ministre slovaque Robert Fico, a obtenu 23% lors du scrutin de samedi, devançant le parti centriste Progressive Slovakia avec 18%.
De plus, comme il s'agissait d'un contenu audio, il a échappé à la politique de Meta, qui vise principalement les vidéos manipulées.
À la veille du scrutin, Věra Jourová, responsable de la politique numérique de l'UE, a souligné la vulnérabilité des élections européennes aux tactiques de manipulation à grande échelle, laissant entrevoir des influences extérieures telles que celles de Moscou.
Aujourd'hui, les pays sont en état d'alerte maximale face à l'ingérence de l'IA dans les élections, qui semble inévitable - il s'agit plutôt de savoir si nous pouvons l'arrêter et quels sont les dégâts qu'elle peut causer. La Pologne, dont les élections sont imminentes, sera le prochain test.
Des élections importantes se profilent également à l'horizon en 2024 et 2025, notamment aux États-Unis et en Inde l'année prochaine.
Les vérificateurs de faits comme l'AFP soulignent que l'IA évolue rapidement pour devenir un outil puissant de déstabilisation des élections et que nous sommes mal équipés pour la contrer. Veronika Hincová Frankovská, de l'organisation de vérification des faits Demagog, a déclaré : "Nous ne sommes pas aussi prêts que nous devrions l'être."
L'équipe de M. Frankovská a vérifié l'origine du faux son slovaque et a consulté des experts avant d'utiliser un classificateur vocal IA d'Eleven Labs pour s'assurer de son authenticité.
Malgré l'évolution de l'IA, nous comptons encore largement sur les humains pour détecter les contrefaçons profondes.
Les contrefaçons profondes par l'IA deviennent un problème critique
L'IA joue un rôle de plus en plus important dans la diffusion de la désinformation, et prouver que les images, les vidéos et les enregistrements de l'IA sont faux est une tâche herculéenne.
La plupart des faux contenus sont interdits sur les médias sociaux. Ben Walter, représentant de Meta, a déclaré : "Nos normes communautaires s'appliquent à tous les contenus... et nous prendrons des mesures à l'encontre des contenus qui violent ces politiques."
Dans la pratique, cependant, il s'avère impossible d'empêcher la diffusion de faux contenus profonds, et des mesures telles que l'IA les filigranes sont terriblement inefficaces.
Alors que la Pologne se prépare aux élections, l'afflux possible de contenus générés par l'IA suscite des appréhensions, et la désinformation est déjà source d'agitation.
Jakub Śliż, du groupe polonais de vérification des faits, l'association Pravda, a déclaré : "En tant qu'organisation de vérification des faits, nous n'avons pas de plan concret sur la manière de traiter ce problème."
Lorsque les résultats électoraux reposent sur des marges serrées et des dialogues politiques amers, comme ce fut le cas en Slovaquie, l'impact de la désinformation générée par l'IA pourrait être grave. Qui plus est, les incidents passés de désinformation amplifiée par des algorithmes, tels que le scandale Cambridge Analytica, nous indiquent que certaines parties prenantes pourraient être complices de ces tactiques.
Les élections présidentielles américaines de 2016 ont déjà été marquées par la désinformation propagée par des activistes extrémistes, l'ingérence étrangère et des organes d'information trompeurs.
En 2020, les allégations infondées de fraude électorale sont devenues prédominantes, renforçant un mouvement contre la démocratie qui cherchait à renverser les résultats.
La désinformation par l'IA ne risque pas seulement de tromper le public ; elle menace également de submerger un environnement d'information déjà fragile, en créant une atmosphère de mensonge, de méfiance et de tromperie.
"Le degré de confiance diminuera, le travail des journalistes et des autres personnes qui tentent de diffuser des informations réelles deviendra plus difficile", déclare Ben Winters, représentant principal de l'Electronic Privacy Information Center (centre d'information sur la protection de la vie privée).
De nouveaux outils pour de vieilles tactiques
Imaginez un monde où les contenus manipulateurs sont produits à un coût si négligeable et avec une telle facilité qu'ils deviennent monnaie courante.
La désinformation par les technologies n'est pas un phénomène nouveau, mais les outils d'IA sont parfaitement positionnés pour donner un coup de fouet à ces tactiques.
Les premières escarmouches ont été nombreuses et révélatrices de ce qui nous attend. Au début de l'année, un Image du Pentagone générée par l'IA L'explosion a eu un impact tangible sur les marchés boursiers, ne serait-ce que pendant quelques minutes, avant que les utilisateurs des médias sociaux ne dénoncent les images virales comme étant fausses.
Des images créées par l'IA, semblant montrer Donald Trump confronté à la police, ont gagné du terrain en ligne, et le Comité national républicain a diffusé une publicité entièrement générée par l'IA, envisageant des catastrophes si M. Biden était réélu.
Le gouverneur de Floride et candidat républicain, Ron DeSantis, a publié des images modifiées montrant l'ex-président Donald Trump dans un... étreinte avec le Dr. Anthony Fauci.
X (à l'époque Twitter) a ajouté une étiquette au tweet original, le qualifiant de manipulé par l'IA.
Donald Trump s'est fait connaître en virant d'innombrables personnes *à la télévision*.
Mais lorsqu'il s'agit de Fauci... pic.twitter.com/7Lxwf75NQm
- DeSantis War Room 🐊 (@DeSantisWarRoom) 5 juin 2023
Au Royaume-Uni, le Premier ministre Rishi Sunak a fait l'objet d'un montage pour le montrer en train de se battre contre le gouvernement. verser une pinte de bière de qualité médiocreLe site Web de X (à l'époque Twitter) a été mis à jour avant que l'authenticité de l'image ne soit révélée, au grand dam des utilisateurs de X (à l'époque Twitter).
En dehors de l'arène politique, les gens ont été escroqués par des fraudeurs qui utilisent des faux profonds en se faisant passer pour des amis ou des membres de leur famille.
Plusieurs femmes et même les jeunes filles ont fait l'objet d'une "sextorsion" frauduleuse - des escrocs les faisant chanter avec de fausses images contenant des jurons -, un phénomène contre lequel le FBI a lancé une mise en garde au début de l'année.
Clones vocaux d'Omar al-Bashir, l'ancien dirigeant du Soudan, est apparu récemment sur TikTokLe gouvernement de l'Union européenne a donc décidé de ne pas se laisser abattre, attisant ainsi les flammes d'un pays en proie à la guerre civile.
La liste des exemples n'en finit pas de s'allonger, et il semble que les fausses IA maîtrisent le texte, les images, la vidéo et l'audio.
L'IA abaisse la barre de la désinformation
Les outils améliorés par l'IA amplifient les tactiques traditionnelles d'ingérence électorale, tant en termes de qualité que d'ampleur.
Comme nous l'avons vu lors des élections en Slovaquie, Josh Goldstein, du Center for Security and Emerging Technology de l'université de Georgetown, explique comment des acteurs étrangers peuvent produire un contenu convaincant dans la langue souhaitée.
Il a déclaré : "Les images et les vidéos générées par l'IA peuvent être créées beaucoup plus rapidement que les vérificateurs de faits ne peuvent les examiner et les démystifier".
Il est également possible d'exploiter l'IA pour faire de la désinformation de masse ciblée. Par exemple, deux militants d'extrême droite ont utilisé des robocalls (appels téléphoniques robotisés qui ciblent des personnes en masse) pour diffuser des informations erronées sur les élections à des milliers d'électeurs noirs l'année dernière.
Les États-Unis se préparent à la désinformation électorale par l'IA
Avec plusieurs élections très médiatisées prévues en 2024, l'influence des campagnes de désinformation alimentées par l'IA va être sérieusement exposée.
En réponse à l'influence croissante de l'IA, des géants de la technologie comme Google ont pris des mesures, telles que l'obligation d'apposer des étiquettes sur les publicités politiques utilisant un contenu enrichi par l'IA.
Pendant ce temps, le Congrès délibère sur la réglementation de l'IA et la Commission électorale fédérale (FEC) envisage des règles pour l'utilisation de l'IA dans la publicité politique.
En réponse aux inquiétudes croissantes concernant le pouvoir trompeur de l'IA, la La FEC a proposé des règlements sur l'utilisation de l'IA dans les campagnes politiques.
Dévoilée le 10 août, cette décision unanime de la FEC a donné lieu à une consultation publique de 60 jours auprès d'experts, de parties prenantes et du grand public.
Au fil des discussions au sein de la FEC, Lisa Gilbert, vice-présidente de Public Citizen, a souligné la nécessité de réexaminer la manière dont les lois relatives aux "déclarations frauduleuses" pourraient s'appliquer aux "deep fakes" de l'IA.
À l'approche de 2024, les nouveaux modèles d'IA de Meta, OpenAI et d'autres développeurs d'IA donnent aux gens la possibilité de générer des contenus extrêmement réalistes, de sorte que ce problème ne sera pas plus facile à résoudre, bien au contraire.