Alors que le Bangladesh se prépare à tenir ses élections nationales au début du mois de janvier, une menace de plus en plus familière refait surface : les fausses informations générées par l'IA.
Les élections bangladaises sont une lutte acharnée entre l'actuel Premier ministre, Sheikh Hasina, et l'opposition, le Parti nationaliste du Bangladesh.
De nombreux rapports attirent l'attention sur le fait que des groupes pro-gouvernementaux utilisent ces outils pour produire des clips d'information générés par l'IA et destinés à influencer l'opinion publique.
Par exemple, dans l'un de ces clips, un présentateur de journaux bangladais créé par l'IA critique les États-Unis, ce qui fait écho à la position du gouvernement actuel.
Un autre exemple est celui des vidéos profondément truquées visant à discréditer les personnalités de l'opposition, en les montrant par exemple en train de prendre des positions impopulaires sur des questions sensibles telles que le soutien à Gaza, un sujet de débat extrêmement important dans ce pays à majorité musulmane de 175 millions d'habitants.
Les fausses informations profondes et la désinformation sont sans doute devenues les risques les plus immédiats et les plus pressants de l'IA. Ce n'est que cette semaine que le président russe Vladimir Putin a été confronté à une copie IA de lui-même lors d'une conférence de presse - un étudiant l'utilisait pour faire valoir son point de vue sur les "deep fakes" lors d'une séance de questions-réponses télévisée en direct.
L'élection slovaque a souffert de désinformation des médias sociaux dans les 48 heures précédant l'heure d'affichage, période pendant laquelle il est interdit aux médias de parler de l'actualité politique.
Les grandes entreprises technologiques telles que Google et Meta commencent à mettre en œuvre des politiques en matière de publicité politique, y compris l'obligation de divulguer les modifications numériques. Toutefois, jusqu'à présent, ces mesures semblent faibles, en particulier dans les régions qui n'attirent pas autant l'attention de ces entreprises.
La réglementation de l'IA, en général, est principalement le fait de l'Occident, les pays en développement étant pour la plupart dépourvus de réglementation et de droits numériques, ce qui expose les personnes et leurs données à l'exploitation.
Comment fonctionne la technologie du "deep fake" ?
Par essence, le "deep fake" est un terme non technique qui décrit un faux extrêmement efficace, généralement créé à l'aide d'outils d'IA générative.
Un exemple illustratif est HeyGen, un générateur de vidéos d'IA basé à Los Angeles. Moyennant un abonnement modeste, ce service permet aux utilisateurs de créer des clips avec des avatars d'IA.
Une de ces vidéos, alléguant l'ingérence des États-Unis dans les élections bangladaises, a circulé sur les plateformes de médias sociaux.
Comme ces avatars d'IA sont très réalistes, ils passent souvent à travers les filtres des médias sociaux, et le grand public peut ne pas réagir immédiatement. Certaines fausses images associées à la Conflit israélo-palestinien a atteint des millions de personnes avant d'être complètement démasquée comme étant fausse, par exemple.
L'absence d'outils robustes de détection de l'IA pour les contenus non anglophones aggrave le problème.
À mesure que la technologie de l'IA progresse et devient plus accessible, les organismes de réglementation et les plateformes numériques doivent impérativement élaborer et appliquer des mesures efficaces pour lutter contre la désinformation.
Jusqu'à présent, la tâche s'est avérée ardue.