Les fraudes profondes sont rapidement devenues un problème social et politique grave et une menace potentielle pour l'intégrité des élections.
Peu avant les élections slovaques, qui se déroulent à un rythme soutenu, un clip audio litigieux a fait surface sur les médias sociaux, dans laquelle une voix ressemblant étrangement à celle du chef du parti progressiste slovaque, Michal Šimečka, parlait d'un plan visant à manipuler les élections.
En raison de la proximité du message avec l'heure du scrutin, il était difficile d'avertir les gens qu'il s'agissait d'un faux.
Peu de temps après, une autre controverse a éclaté lorsque le chef du parti travailliste britannique a été entendu en train d'aboyer des jurons dans un clip audio posté sur X, avec le message suivant : "J'ai obtenu un enregistrement de Keir Starmer en train d'agresser verbalement ses collaborateurs lors de la conférence [du parti travailliste]", a posté le compte X. "Cette brute dégoûtante est sur le point de devenir notre prochain Premier ministre", a-t-il ajouté. "Cette brute dégoûtante est sur le point de devenir notre prochain Premier ministre.
Au cours de la même période, un compte TikTok a été supprimé après qu'il a été découvert qu'il s'agissait d'un compte d'auteur. la production de faux clips de l'ex-président soudanais emprisonné Omar Al-Bashir, attisant les flammes d'un pays déjà en proie à la guerre civile.
Dans les trois cas, les clips avaient un point commun : ils étaient faux et vraisemblablement créés par l'intelligence artificielle.
Si les vidéos et les images d'IA sont omniprésentes et posent leurs propres problèmes, les faux clips audio sont plus difficiles à détecter et passent souvent à travers les mailles du filet. Les voix elles-mêmes ont tendance à être très authentiques ; comme l'a souligné Jack Brewster de NewsGuard, "Obama a toujours l'air un peu plastique lorsque de mauvais acteurs utilisent son visage. Mais le son de sa voix est très bon - et je pense que c'est la grande différence ici".
À la lumière de ces préoccupations, un groupe de sénateurs a proposé le "No Fakes Act", un projet de loi visant à pénaliser ceux qui produisent ou partagent des fichiers audio ou vidéo créés par l'IA sans le consentement de la personne originale.
Comme le souligne Hany Farid, professeur de criminalistique numérique à l'université de Californie à Berkeley, ditIl ne s'agit pas d'une hypothèse. Il s'agit de violence, de vol d'élections, de fraude - [cela a] des conséquences concrètes pour les individus, les sociétés et les démocraties".
Les applications de clonage de voix ont évolué de manière spectaculaire, avec des plateformes comme Eleven Labs qui proposent des outils permettant de créer une voix "deepfaked" pour un coût mensuel nominal de seulement $5.
Hany Farid, soulignant la responsabilité des géants des médias sociaux, a déclaré : "Ils pourraient fermer le robinet dès maintenant s'ils le voulaient. Mais c'est mauvais pour les affaires".
Les "deep fakes" de l'IA peuvent-ils vraiment influencer les élections ?
Les "deep fakes" ont déjà démontré leur impact dans le monde réel, une fausse image d'une explosion au Pentagone au début de l'année ayant fait chuter temporairement les marchés, même si cela n'a duré que quelques minutes.
Ces faux clips et vidéos menacent un paysage informationnel déjà fragile, où les soupçons sont souvent élevés et les marges étroites.
Bien qu'il soit extrêmement difficile d'évaluer l'impact réel des "deep fakes" de l'IA sur le discours politique et le comportement des électeurs, cela abaisse la barre de la désinformation.
Ben Winters, représentant principal de l'Electronic Privacy Information Center, déclare : "Le degré de confiance diminuera, le travail des journalistes et des autres personnes qui tentent de diffuser des informations réelles deviendra plus difficile".
En outre, si l'une des tactiques les plus courantes de ces campagnes consiste à impliquer faussement des hommes politiques dans des scénarios qui nuisent à leur réputation, elles pourraient également conduire à un "dividende du menteur", où il devient possible de réfuter des allégations véridiques en les qualifiant de fausses.
Pour lutter contre les "deep fakes", il faut combiner des filtres de contenu d'IA plus avancés sur les médias sociaux et l'éducation du public. Toutefois, la qualité des deep fakes eux-mêmes ne fera que s'améliorer.