Les "deep fakes" font des ravages dans le conflit israélo-palestinien

28 octobre 2023

IA Israël

L'année 2023 a été marquée par un déluge de fausses images profondes créées à l'aide de générateurs d'images d'IA, allant d'une fausse image d'explosion au Pentagone à des images de maltraitance d'enfants. 

La technologie de l'imitation profonde génère également des copies robustes de la voix de pratiquement n'importe qui, qu'il s'agisse de Johnny Cash chantant Barbie Girl à Faux discours de l'ex-président soudanais Omar al-Bashir. 

Il n'est donc pas surprenant que des contrefaçons profondes aient envahi le paysage numérique déjà difficile qui entoure le conflit actuel entre Israël et le Hamas. 

Dans l'ensemble, les analystes estiment que la désinformation par l'IA a été limitée - il y a suffisamment de contenu viscéral réel qui circule sur les médias sociaux. Toutefois, la simple perspective de faux générés par l'IA a conduit les gens à remettre en question la légitimité des images, des vidéos et des clips audio authentiques.

C'est ce qu'on appelle le "dividende du menteur". Un contenu réel peut désormais être potentiellement rejeté comme étant généré par l'IA, le rendant ainsi faussement faux aux yeux des spectateurs.

Les médias sociaux créent le terrain idéal pour que la suspicion et la paranoïa à l'égard des contenus numériques se répandent comme une traînée de poudre - la possibilité de qualifier de faux ce qui semble réel, et vice versa, est quelque chose que beaucoup utiliseront pour renforcer leur point de vue. 

Bill Marcellino, de la RAND Corporation, souligne ce dilemme : "Que se passera-t-il lorsque tout ce que vous verrez de numérique pourra être synthétique ? 

De même, Hany Farid, spécialiste de la criminalistique numérique et de la désinformation par l'IA, a commenté le conflit entre Israël et le Hamas en ces termes : "Même selon les normes de brouillard de guerre auxquelles nous sommes habitués, ce conflit est particulièrement désordonné... Le spectre des "deepfakes" est beaucoup, beaucoup plus important maintenant - il ne faut pas des dizaines de milliers, il suffit de quelques uns, et alors vous empoisonnez le puits et tout devient suspect."

Ce qui est remarquable, c'est la rapidité avec laquelle la technologie de l'imitation profonde a évolué. En 2022, l'identification des incohérences dans les images générées par l'IA était simple et intuitive, alors qu'aujourd'hui, elle nécessite souvent l'analyse d'un spécialiste. 

L'érosion de la confiance devient de plus en plus évidente au fur et à mesure que les discussions sur Gaza, chargées d'émotion, se poursuivent, en particulier sur les plateformes de médias sociaux.

Les faux contenus suscitent la controverse et, par conséquent, l'exposition.

Le problème d'un contenu douteusement faux est qu'il suscite le débat et, par conséquent, des impressions, des mentions "J'aime" et des commentaires 

Par exemple, un post sur X, qui a attiré 1,8 million de vues, dépeint faussement les fans de l'Atlético de Madrid arborant un énorme drapeau palestinien. Les utilisateurs ont souligné les figures déformées de l'image, indiquant une génération d'IA. 

Selon le New York Times, un autre message provenant d'un compte lié au Hamas sur la plateforme X présentait de manière inexacte un campement de tentes pour Israéliens déplacés, avec un drapeau erroné. Ce message a été supprimé par la suite. 

Les images ne présentant aucun signe apparent de manipulation par l'IA ont fait l'objet d'une plus grande attention et d'un examen plus approfondi. Il s'agit par exemple de la vidéo d'une conférence de presse du directeur d'un hôpital de Gaza, que certains ont qualifiée de "générée par l'IA", alors que de multiples sources ont filmé l'événement sous des angles différents.

Pour tenter de distinguer la vérité des contenus générés par l'IA, certains utilisateurs de médias sociaux se sont tournés vers des outils de détection. Ces outils prétendent identifier les manipulations numériques, mais ils se sont révélés incohérents et peu fiables.

Au début du conflit, le Premier ministre Netanyahou a partagé une série d'images sur la plateforme X, affirmant qu'elles représentaient des "photos horribles de bébés assassinés et brûlés" par le Hamas. 

Lorsque le commentateur conservateur Ben Shapiro a attiré l'attention sur l'une des images de la plateforme X, il a été largement accusé de diffuser du contenu généré par l'IA. Nous n'intégrerons pas le Tweet directement en raison de la nature horrible de l'image, mais vous pouvez consulter le Tweet. débat sur le post de Shapiro ici

Un message, qui a été vu plus de 21 millions de fois avant d'être supprimé, prétendait avoir la preuve que l'image du bébé était fausse. Il présentait une capture d'écran d'AI or Not, un outil de détection, qualifiant l'image de "générée par l'intelligence artificielle". 

L'entreprise a ensuite revu cette évaluation sur la plateforme X, expliquant que le résultat n'était pas concluant en raison de la compression de l'image et des modifications qui masquaient les détails d'identification. Elle a également annoncé qu'elle avait affiné son outil de détection en conséquence.

Anatoly Kvitnitsky, PDG de IA ou pasLe président de l'association, M. Kristof, s'est penché sur les implications éthiques de leur technologie : "Nous nous sommes rendu compte que chaque technologie qui a été construite a, à un moment donné, été utilisée pour le mal... Nous sommes arrivés à la conclusion que nous essayons de faire le bien, que nous allons maintenir le service actif et faire de notre mieux pour nous assurer que nous sommes des pourvoyeurs de vérité. Mais nous avons réfléchi à la question de savoir si nous ne causions pas plus de confusion, plus de chaos.

Tout cela aboutit à une situation incroyablement dense et confuse qui amplifie des émotions déjà poussées à leur paroxysme. 

L'IA apporte et retire à la fois du débat public et de la vérité. Comment les gens s'adaptent-ils à sa présence sur les médias sociaux, et les entreprises technologiques peuvent-elles un jour en reprendre le contrôle ?

Rejoindre l'avenir


SOUSCRIRE AUJOURD'HUI

Clair, concis, complet. Maîtrisez les développements de l'IA avec DailyAI

Sam Jeans

Sam est un rédacteur scientifique et technologique qui a travaillé dans diverses start-ups spécialisées dans l'IA. Lorsqu'il n'écrit pas, on peut le trouver en train de lire des revues médicales ou de fouiller dans des boîtes de disques vinyles.

×

PDF GRATUIT EXCLUSIF
Gardez une longueur d'avance avec DailyAI

Inscrivez-vous à notre newsletter hebdomadaire et recevez un accès exclusif au dernier eBook de DailyAI : 'Mastering AI Tools : Your 2024 Guide to Enhanced Productivity" (Maîtriser les outils de l'IA : votre guide 2024 pour une meilleure productivité).

*En vous abonnant à notre lettre d'information, vous acceptez nos conditions d'utilisation. Politique de confidentialité et notre Conditions générales d'utilisation