Certains des meilleurs détecteurs d'images d'IA peuvent être trompés en ajoutant une texture à l'image ou en la dégradant légèrement.
Même si les images générées par l'IA n'existent pas depuis très longtemps, nous savons qu'il vaut mieux ne pas se fier à nos yeux. Mais il s'avère que nous ne pouvons même pas faire confiance aux machines qui sont censées nous dire si une image est vraie ou fausse.
Une expérience récente rapporté par le New York Times a constaté que, dans la plupart des cas, les détecteurs d'images d'IA tels que le Ruche ou Umm-maybe ont été capables de classer correctement des images générées par l'IA. Jusqu'à ce qu'ils ajoutent du grain à l'image.
Lorsqu'ils ont dégradé les images en ajoutant une petite quantité de grain, ou de bruit pixellisé, les détecteurs ont été convaincus que les images générées par l'IA étaient réelles. Dans un cas, une image en noir et blanc d'un homme a d'abord été correctement évaluée comme ayant une probabilité de 99% d'être générée par l'IA. En ajoutant une légère quantité de grain, le détecteur a soudainement ramené cette probabilité à 3,3%, affirmant ainsi que l'image était presque certainement réelle.
Lorsque de fausses images du pape vêtu d'une veste Balenciaga trompent certaines personnes, il s'agit d'un amusement inoffensif. Mais lorsque des images générées par l'IA sont utilisées lors d'élections et ne peuvent être identifiées comme fausses, les conséquences pourraient être plus graves.
Ron DeSantis a récemment été critiqué pour avoir utilisé des images générées par l'IA dans sa campagne. Sa campagne a intercalé trois images réelles de Trump avec trois images générées par l'IA de Trump embrassant le Dr Anthony Fauci. Agence France-Press a été le premier à mettre en évidence les faux.
Si vous connaissez ne serait-ce que vaguement la politique de Trump, vous n'avez pas besoin d'un logiciel pour savoir que la photo de lui embrassant Fauci est fausse. Mais les détecteurs d'images d'IA ne s'appuient pas sur le contexte ou le sujet pour décider si une photo est réelle ou non. Ils examinent les motifs de pixels révélateurs que les générateurs d'images d'IA produisent lors de la création d'une image.
Il s'avère que si l'on prend ces images haute résolution et qu'on les dégrade un tout petit peu, même les meilleurs détecteurs de faux de l'IA diront souvent qu'il s'agit d'une image authentique. Il suffit de demander à Midjourney de produire une photo vintage de mauvaise qualité pour tromper certains de ces outils.
Il s'agit d'une évolution intéressante, mais son importance reste à démontrer. Les conséquences concrètes de la Désinformation générée par l'IA ont peu de chances d'être évitées par des détecteurs infaillibles. Une bonne dose de scepticisme et l'éducation des gens sur les risques de se fier à leurs yeux seront probablement bien plus efficaces.