Les filigranes d'images AI ne fonctionnent pas et ne fonctionneront probablement jamais

3 octobre 2023

fausse IA profonde

Les entreprises tentent d'utiliser des filigranes numériques pour identifier les images d'IA, mais une étude récente montre que leurs efforts pourraient être vains.

Une équipe de chercheurs de l'université du Maryland a testé des techniques de pointe pour le tatouage d'images et les résultats n'étaient pas bons.

Soheil Feizi, professeur d'informatique à l'université du Maryland, a déclaré que son équipe avait testé toutes les techniques de filigrane existantes et les avait toutes brisées.

Les document de recherche reconnaît que le filigrane semble être la défense la plus prometteuse contre les contrefaçons profondes, mais souligne ensuite les lacunes des approches actuelles.

Les deux principales méthodes de filigrane sont la perturbation faible et la perturbation forte.

La méthode à faible perturbation consiste à apporter à une image une modification subtile, imperceptible à l'œil, mais néanmoins détectable numériquement. Ces méthodes présentent un compromis entre les performances et les faux positifs. Plus la méthode était performante pour identifier une fausse image d'IA, plus elle était susceptible d'identifier à tort une image réelle comme étant une fausse image.

Une perturbation importante consiste à ajouter un élément visible à l'image, ce qui est considéré comme une approche plus robuste. Les chercheurs ont également réussi à supprimer tous ces filigranes. Leur approche d'"attaque contradictoire par substitution de modèle" a même permis de supprimer les filigranes en anneau d'arbre plus subtils et plus avancés.

Alors que l'IA continue de favoriser la création et la diffusion de la désinformation, nous avons besoin d'un moyen efficace pour savoir si une image ou une vidéo a été créée par l'IA. Toutefois, cette étude conclut qu'une solution efficace semble de plus en plus improbable, même si elle n'est pas impossible.

L'équipe de Feizi n'a testé que les filigranes disponibles. Google et Meta travaillent sur leurs propres technologies de filigrane, mais elles n'ont pas encore été testées.

Malgré cela, Feizi estime que ses recherches indiquent que même les grandes entreprises technologiques n'apporteront pas de solution infaillible. A publié par des chercheurs de l'Université de Californie a conclu que "tous les filigranes invisibles sont vulnérables".

Au fur et à mesure que l'IA générative s'améliore, il deviendra probablement plus difficile d'identifier une image générée par l'IA. Ainsi, même si les générateurs commerciaux d'images d'IA tels que DALL-E ou Midjourney utilisent un filigrane efficace, rien n'oblige les autres modèles à le faire.

L'autre problème mis en évidence par les recherches de Feizi est qu'elles ont permis d'introduire des filigranes d'IA dans des images qui n'étaient pas générées par l'IA.

Le problème, c'est qu'en présence d'une preuve photographique, des acteurs malveillants pourraient y apposer un filigrane d'IA dans le but de discréditer la preuve.

Il faudra voir comment les filigranes de Google et de Meta résisteront aux attaques par force brute de l'équipe de Feizi. Pour l'instant, il semble que nous devions nous rappeler qu'il ne faut pas croire ce que l'on voit.

 

Rejoindre l'avenir


SOUSCRIRE AUJOURD'HUI

Clair, concis, complet. Maîtrisez les développements de l'IA avec DailyAI

Eugène van der Watt

Eugene a une formation d'ingénieur en électronique et adore tout ce qui touche à la technologie. Lorsqu'il fait une pause dans sa consommation d'informations sur l'IA, vous le trouverez à la table de snooker.

×

PDF GRATUIT EXCLUSIF
Gardez une longueur d'avance avec DailyAI

Inscrivez-vous à notre newsletter hebdomadaire et recevez un accès exclusif au dernier eBook de DailyAI : 'Mastering AI Tools : Your 2024 Guide to Enhanced Productivity" (Maîtriser les outils de l'IA : votre guide 2024 pour une meilleure productivité).

*En vous abonnant à notre lettre d'information, vous acceptez nos conditions d'utilisation. Politique de confidentialité et notre Conditions générales d'utilisation