Les simulations d'IA déclenchent un débat houleux à l'approche des élections indiennes de 2024

16 mai 2024

  • L'Inde s'apprête à organiser des élections cette année, et l'IA joue un rôle clé.
  • Les "deep fake media" sont devenus monnaie courante et leur impact s'intensifie
  • Des personnes ont été arrêtées pour avoir falsifié des vidéos de leurs rivaux politiques.
IA Inde

Les élections générales de 2024 en Inde, le plus grand exercice démocratique au monde avec plus de 960 millions d'électeurs éligibles, sont transformées par l'essor de l'intelligence artificielle et du contenu hyperréaliste (deep fake content). 

Ainsi, une nouvelle génération d'agents politiques, férus de technologie, exploite l'IA pour créer des médias synthétiques à des fins politiques et commerciales. 

L'une des figures les plus en vue de l'industrie émergente du "deep fake" en Inde est Divyendra Singh Jadoun, un autoproclamé "deep faker indien" âgé de 31 ans, qui est rapidement devenu un fournisseur de choix pour les campagnes politiques.

Ce qui a commencé comme une opération individuelle de création de parodies de Bollywood a évolué pour devenir un studio de médias synthétiques à part entière. 

"Il s'est agrandi depuis en raison de tout le travail qu'il reçoit", a déclaré un journaliste basé à Bangalore. Saritha Rai déclare à Bloomberg

"La première fois que je lui ai parlé, il m'a dit qu'il avait quelques employés, et c'était il y a quelques mois. Ensuite, il m'a dit qu'il avait cinq autres employés qui l'aidaient à réaliser ces vidéos".

À l'aide de modèles d'IA formés sur des heures d'images authentiques, M. Jadoun et son équipe génèrent des vidéos d'un réalisme saisissant de politiciens tels que le Premier ministre Narendra Modi s'adressant aux électeurs par leur nom. 

"Le niveau d'hyperpersonnalisation que permet l'IA générative... Il suffit d'entraîner le modèle à dire le message principal, puis de l'alimenter avec des milliers et des milliers de noms. Il reproduira instantanément la même vidéo et la synchronisera parfaitement avec Narendra Modi appelant chaque personne par son nom", explique M. Rai.

Les campagnes électorales basées sur l'IA imitent l'intimité des interactions en personne à une échelle presque infinie et à un coût abordable. 

M. Rai ajoute qu'"une grande partie de la campagne sera hyperpersonnalisée pour les électeurs... une grande partie de la campagne leur parviendra via leur téléphone. Et une grande partie de ce matériel sera généré par l'IA".

Les faux en profondeur sont monnaie courante en Inde à l'approche des élections

En Inde, Rai explique que des millions de personnes sont initiées à la technologie pour la première fois grâce à des smartphones abordables, ce qui ne fait qu'aggraver le problème. 

Une population inexpérimentée sur le plan numérique est beaucoup plus sensible aux contenus trompeurs.

Il en va de même pour les personnes plus âgées qui, une fois de plus, ne sont pas aussi exposées à la folie du contenu de l'internet.

Mais même parmi ceux qui se considèrent comme efficaces pour identifier les contrefaçons d'IA, des études révèlent que eême si nous savons que les médias sont faux, ils peuvent affecter notre mémoire et notre prise de décision. 

Outre les faux profonds destinés à présenter des personnalités publiques sous un jour favorable, des cas de faux politiques malveillants sont également de plus en plus fréquents en Inde. 

Par exemple, en novembre, le vérificateur de faits Muralikrishnan Chinnadurai a repéré un flux en direct censé montrer Duwaraka, la fille d'un militant tamoul décédé depuis longtemps, en train de prononcer un discours politique enflammé. 

M. Chinnadurai a identifié des erreurs, révélant qu'il s'agissait d'un avatar généré par l'IA. "Il s'agit d'un sujet sensible dans l'État [Tamil Nadu] et, à l'approche des élections, la désinformation pourrait rapidement se répandre", a déclaré M. Chinnadurai. il a déclaré à la BBC.

Le mois dernier, de très fausses vidéos des stars de Bollywood Ranveer Singh et Aamir Khan semblant soutenir le parti d'opposition, le Congrès, sont devenues virales, ce qui a donné lieu à des plaintes de la part des acteurs auprès de la police. 

Le 29 avril, le Premier ministre Modi a lui-même mis en garde contre l'utilisation de "deep fakes" pour falsifier les discours des dirigeants du parti au pouvoir. 

Le lendemain, deux membres du parti d'opposition ont été arrêtés pour avoir falsifié une vidéo du ministre de l'intérieur Amit Shah. Le parti d'opposition Bharatiya Janata Party (BJP) a fait l'objet d'accusations similaires de la part de ses rivaux.

Jusqu'à présent, le gouvernement indien n'a exercé qu'une surveillance limitée, confiant en grande partie la modération des contenus aux plateformes de médias sociaux. "L'Inde ne dispose d'aucune réglementation en matière d'IA", affirme M. Rai. 

Le gouvernement a récemment commencé à exiger une autorisation préalable avant de lancer des outils d'IA "non fiables" et a mis en garde contre les résultats susceptibles de compromettre les élections, mais il n'existe pas de règles exhaustives. Il en va de même pour une grande partie du monde. 

Comme le souligne à juste titre l'ancien commissaire électoral SY Qureshi, "les rumeurs ont toujours fait partie de la campagne électorale. [Mais à l'ère des médias sociaux, elles peuvent se répandre comme une traînée de poudre... Elles peuvent en fait mettre le pays à feu et à sang".

Rejoindre l'avenir


SOUSCRIRE AUJOURD'HUI

Clair, concis, complet. Maîtrisez les développements de l'IA avec DailyAI

Sam Jeans

Sam est un rédacteur scientifique et technologique qui a travaillé dans diverses start-ups spécialisées dans l'IA. Lorsqu'il n'écrit pas, on peut le trouver en train de lire des revues médicales ou de fouiller dans des boîtes de disques vinyles.

×

PDF GRATUIT EXCLUSIF
Gardez une longueur d'avance avec DailyAI

Inscrivez-vous à notre newsletter hebdomadaire et recevez un accès exclusif au dernier eBook de DailyAI : 'Mastering AI Tools : Your 2024 Guide to Enhanced Productivity" (Maîtriser les outils de l'IA : votre guide 2024 pour une meilleure productivité).

*En vous abonnant à notre lettre d'information, vous acceptez nos conditions d'utilisation. Politique de confidentialité et notre Conditions générales d'utilisation