Google teste un filigrane numérique pour identifier les images d'IA

30 août 2023

Les fausses images d'IA peuvent tromper les détecteurs d'images d'IA

Le laboratoire de recherche DeepMind de Google a dévoilé une version bêta de SynthID, son nouvel outil de filigrane et d'identification des images générées par l'IA.

Les inquiétudes suscitées par les "deepfakes" et le potentiel de l'IA à promouvoir la désinformation ont mis en évidence la nécessité de trouver un moyen de détecter les images générées par l'IA. 

Les filigranes conventionnels ajoutés aux images à des fins de droits d'auteur peuvent être facilement supprimés par recadrage, ajout de filtres ou édition. Même les métadonnées peuvent être supprimées des images.

SynthID incorpore le filigrane numérique directement dans les pixels de l'image. Le nombre de pixels modifiés est si faible que le filigrane est imperceptible à l'œil humain. La mise à l'échelle, le recadrage ou la réduction de la résolution de l'image ne supprimeront pas le filigrane.

Si vous saviez où se trouve le filigrane, vous pourriez techniquement le supprimer, mais vous endommageriez également l'image.

 

Google met SynthID à la disposition de certains de ses clients qui utilisent son générateur d'images, Imagen, sur la plateforme Vertex AI de Google. 

Les utilisateurs qui créent une image avec Imagen peuvent ajouter le filigrane ou utiliser SynthID pour détecter si une image a été créée avec Imagen. Cette méthode n'est cependant pas infaillible, car le sur DeepMind a reconnu.

"L'outil propose trois niveaux de confiance pour interpréter les résultats de l'identification du filigrane. Si un filigrane numérique est détecté, une partie de l'image est probablement générée par Imagen."

Les Article de blog de DeepMind a également déclaré que "SynthID n'est pas à l'épreuve des manipulations extrêmes d'images".

SynthID fera-t-il une différence ?

Google ne présente pas cet outil comme une panacée pour les images truquées, mais c'est un début. Si la méthode s'avère efficace et qu'elle est adoptée par d'autres générateurs d'images d'IA, il sera peut-être plus facile de repérer une contrefaçon.

Même si une méthode infaillible est mise au point sur la base de quelque chose comme SynthID, comment l'appliquer ? Il y a tellement de générateurs d'images d'IA qui échappent à toute forme de réglementation.

Si vous ne pouvez pas empêcher les gens d'utiliser L'IA génère des images de maltraitance d'enfantsDans ce cas, comment les obliger à ajouter un filigrane aux images falsifiées ?

Un autre défi pour les entreprises comme Google est que, pour qu'un outil favorise la confiance, il doit être infaillible. Si vous dites aux gens qu'une image politiquement chargée a une probabilité de 75% d'être fausse, cela n'élimine pas les discussions sur son authenticité.

Ajouter un filigrane tel que SynthID à une fausse image semble être une bonne idée, mais qu'est-ce qui empêche quelqu'un d'ajouter un filigrane similaire à une image authentique ?

L'esprit critique et une bonne dose de scepticisme pourraient être notre meilleure défense contre l'IA falsifiée pendant un certain temps encore.

Rejoindre l'avenir


SOUSCRIRE AUJOURD'HUI

Clair, concis, complet. Maîtrisez les développements de l'IA avec DailyAI

Eugène van der Watt

Eugene a une formation d'ingénieur en électronique et adore tout ce qui touche à la technologie. Lorsqu'il fait une pause dans sa consommation d'informations sur l'IA, vous le trouverez à la table de snooker.

×

PDF GRATUIT EXCLUSIF
Gardez une longueur d'avance avec DailyAI

Inscrivez-vous à notre newsletter hebdomadaire et recevez un accès exclusif au dernier eBook de DailyAI : 'Mastering AI Tools : Your 2024 Guide to Enhanced Productivity" (Maîtriser les outils de l'IA : votre guide 2024 pour une meilleure productivité).

*En vous abonnant à notre lettre d'information, vous acceptez nos conditions d'utilisation. Politique de confidentialité et notre Conditions générales d'utilisation