Les autorités de régulation américaines s'attaquent aux "deep fakes" générés par l'IA avant les élections de 2024

13 août 2023

Élection de l'IA

La Commission électorale fédérale américaine (FEC) a proposé de réglementer le deep fake content de l'IA dans les publicités politiques, soulignant leur potentiel de tromperie pour les élections de 2024.

Dans une décision unanime décision le 10 aoûtDans le cadre de l'élection présidentielle américaine, la FEC a proposé une réglementation visant à encadrer l'utilisation de contenus " deep fake " créés par l'IA dans les publicités politiques. L'initiative est principalement axée sur les prochaines élections américaines de 2024.

Une période de consultation publique de 60 jours s'ouvre alors, offrant aux parties prenantes, aux spécialistes et au public une plateforme pour partager leurs points de vue. 

Cette proposition émane d'une pétition présentée par la Commission européenne. le groupe de défense d'intérêts Public Citizen

S'agissant des défis potentiels que les "deep fakes" pourraient poser aux systèmes démocratiques, le président de Public Citizen, Robert Weissman, a fait valoir que les "deep fakes" déforment les vérités et propagent des informations trompeuses. 

M. Weissman a déclaré : "La FEC doit faire usage de son autorité pour interdire les "deep fakes", sous peine d'être complice d'une vague de désinformation frauduleuse induite par l'IA et de la destruction des normes fondamentales de la vérité et de la fausseté."

Il existe déjà de nombreux exemples de contenu généré par l'IA intégré dans des publicités politiques et du matériel de campagne. Ainsi, le gouverneur de Floride et candidat républicain Ron DeSantis a fait circuler de fausses images montrant l'ancien président Donald Trump en train d'étreindre le Dr Anthony Fauci. 

Au cours de la discussion avec la FEC, Lisa Gilbert, vice-présidente exécutive de Public Citizen, a souligné la nécessité de mieux comprendre comment les lois actuelles sur les "déclarations frauduleuses" pourraient s'appliquer aux "deep fakes" de l'IA. 

Notamment, des membres des deux chambres du Congrès américain ont soutenu la pétition initiale de Public Citizen, ce qui témoigne d'une volonté commune de protéger les systèmes démocratiques contre les faussetés de l'IA profonde. 

En juin, l'American Association of Political Consultants a déclaré que l'utilisation d'un contenu "deep fake" dans les campagnes politiques constituait une violation des droits de l'homme. violation de leur code éthique. Cependant, des mesures juridiques fermes contre leur utilisation constitueraient une intervention beaucoup plus solide. 

L'utilisation politique des deep fakes a également touché le Royaume-Uni, où le Premier ministre Rishi Sunak était le premier ministre de l'Union européenne. a représenté le fait de verser une pinte de bière de qualité médiocre - une grave erreur à commettre en tant que fonctionnaire britannique. En réalité, la pinte de Sunak était satisfaisante. 

Les "deep fakes" ont été mis en évidence à plusieurs reprises comme l'un des risques les plus puissants et les plus immédiats de l'IA, créant un scénario dans lequel le public ne peut pas facilement faire la distinction entre le faux et la réalité.

Rejoindre l'avenir


SOUSCRIRE AUJOURD'HUI

Clair, concis, complet. Maîtrisez les développements de l'IA avec DailyAI

Sam Jeans

Sam est un rédacteur scientifique et technologique qui a travaillé dans diverses start-ups spécialisées dans l'IA. Lorsqu'il n'écrit pas, on peut le trouver en train de lire des revues médicales ou de fouiller dans des boîtes de disques vinyles.

×

PDF GRATUIT EXCLUSIF
Gardez une longueur d'avance avec DailyAI

Inscrivez-vous à notre newsletter hebdomadaire et recevez un accès exclusif au dernier eBook de DailyAI : 'Mastering AI Tools : Your 2024 Guide to Enhanced Productivity" (Maîtriser les outils de l'IA : votre guide 2024 pour une meilleure productivité).

*En vous abonnant à notre lettre d'information, vous acceptez nos conditions d'utilisation. Politique de confidentialité et notre Conditions générales d'utilisation