Afin de lutter contre les faux et la désinformation en profondeur, les sept entreprises d'IA qui ont accepté le cadre volontaire sur l'IA adopté cette semaine par les États-Unis se sont engagées à filigraner les contenus générés par l'IA.
Les participants à la cadre volontaireannoncés par la Maison Blanche le 21 juin, comprennent Google, OpenAI, Microsoft, Meta, Amazon, Anthropic et Inflection.
Dans ce cadre, ces entreprises se sont engagées à développer des filigranes pour aider le public à identifier l'origine des contenus générés par l'IA et à réduire la tromperie.
Tout comme un filigrane classique, un filigrane d'IA est attaché à une image, une vidéo, un fichier audio ou un texte.
La mise en place d'un filigrane sur les contenus générés par l'IA pourrait réduire les escroqueries, les fausses campagnes virales et les sextorsions. "Ce filigrane permettra à la créativité de l'IA de s'épanouir tout en limitant les risques de fraude et de tromperie", a déclaré la Maison Blanche.
Dans un article de blog Publié peu après les annonces de la Maison Blanche, OpenAI a détaillé son accord pour "développer des mécanismes robustes, y compris des systèmes de provenance et/ou de filigrane pour le contenu audio ou visuel". Elle développera également "des outils ou des API permettant de déterminer si un élément de contenu a été créé avec son système".
Google prévoit d'améliorer la fiabilité des informations en intégrant des métadonnées et "d'autres techniques innovantes" en plus du filigrane.
Plusieurs autres mesures de protection ont été annoncées par la Maison Blanche vendredi, notamment la réalisation de tests internes et externes sur les systèmes d'IA avant leur mise en service, l'augmentation des investissements dans la cybersécurité et la promotion de la collaboration au sein de l'industrie pour réduire les risques liés à l'IA.
L'OpenAI a déclaré que ces engagements constituent "une étape importante dans la promotion d'une gouvernance significative et efficace de l'IA, à la fois aux États-Unis et dans le monde entier".
L'entreprise a également promis d'"investir dans la recherche dans des domaines qui peuvent contribuer à éclairer la réglementation, comme les techniques d'évaluation des capacités potentiellement dangereuses des modèles d'IA".
Nick Clegg, président des affaires mondiales de Meta, a fait écho au sentiment de l'OpenAI, décrivant ces engagements comme un "premier pas important pour garantir l'établissement de garde-fous responsables pour l'IA".
Les filigranes AI fonctionneront-ils ?
Le filigrane des contenus générés par l'IA, bien que conceptuellement attrayant, est loin d'être infaillible.
Les images, les vidéos et les enregistrements audio peuvent porter des graphiques ou des sons minuscules et faibles qui signalent leur origine générée par l'IA.
De même, l'intégration de métadonnées dans les fichiers générés par l'IA peut fournir des informations sur la source et le processus de création du contenu. Toutefois, la suppression des filigranes à l'aide d'autres outils d'IA ou le retrait des métadonnées seront probablement simples.
Si les filigranes peuvent être supprimés, les contenus non filigranés générés par l'IA gagnent soudain en légitimité. L'absence de filigrane pourrait être utilisée pour affirmer qu'une image est authentique alors qu'elle ne l'est pas - un compromis potentiellement dangereux.
En ce qui concerne le texte généré par l'IA, il n'existe pas de solution simple. Contrairement aux images ou au son, le texte ne se prête pas facilement à l'insertion de filigranes.
La principale approche consiste à faire passer le texte par des détecteurs d'IA, qui analysent la perplexité du texte - une mesure de la probabilité qu'un modèle d'IA prédise une séquence de mots donnée - afin d'estimer s'il est généré par l'IA.
Les détecteurs d'IA ont leurs défauts. Ils produisent souvent des taux élevés de faux positifs, ce qui conduit à ce que des contenus non générés par l'IA soient signalés à tort.
Ce problème est amplifié lors de l'analyse de textes rédigés par des personnes dont l'anglais n'est pas la langue maternelle, qui peuvent utiliser des expressions moins courantes ou une syntaxe atypique, ce qui augmente encore les taux de faux positifs. Une étude récente a déconseillé l'utilisation de détecteurs d'intelligence artificielle dans le domaine de l'éducation et du recrutement pour ces raisons.
En outre, à mesure que les modèles d'IA évoluent, la frontière entre le contenu écrit par l'homme et celui écrit par l'IA devient de plus en plus floue. Au fur et à mesure que l'IA s'améliore pour imiter les styles d'écriture humains, les détecteurs basés sur la perplexité deviendront moins fiables.
Si le filigrane est un pas vers l'amélioration de la transparence et de la responsabilité dans les contenus générés par l'IA, il ne s'agit pas d'une solution simple et ne constitue pas un moyen de dissuasion ultime ou une "solution miracle".