L'OpenAI affirme avoir mis au point une méthode de filigrane qui détecte avec précision le texte écrit par ChatGPT, mais ne sait pas encore si elle doit être diffusée ou non.
La détection de textes générés par l'IA est devenue de plus en plus difficile à mesure que les LLM s'améliorent en matière de rédaction de contenu. Les éducateurs sont confrontés à une bataille difficile pour déterminer si leurs étudiants ont réalisé eux-mêmes leurs travaux ou s'ils les ont simplement fait rédiger par ChatGPT.
Dans un article de blog mis à jourL'OpenAI a révélé qu'il avait "développé une méthode de filigrane pour le texte que nous continuons à considérer dans le cadre de notre recherche d'alternatives".
L'entreprise affirme que la méthode est très précise et résistante aux altérations localisées telles que la paraphrase. Elle admet toutefois qu'elle n'est pas infaillible. Le passage du texte par un système de traduction ou l'utilisation d'un autre LLM pour reformuler le texte permet de contourner l'efficacité du filigrane.
Si vous utilisez un modèle d'IA pour insérer un caractère spécial tel qu'un emoji entre chaque mot et que vous supprimez ensuite ce caractère, le filigrane devient également inutile. Toutefois, ces limitations techniques ne sont pas la seule raison pour laquelle la fonction n'a pas été lancée.
ChatGPT est un outil d'écriture particulièrement utile pour les personnes dont l'anglais n'est pas la langue maternelle. L'OpenAI affirme que ses recherches montrent que la diffusion de l'outil de filigrane pourrait avoir un impact disproportionné sur des groupes comme ceux-ci et stigmatiser leur utilisation de l'IA en tant qu'outil d'écriture utile.
Alternatives aux métadonnées textuelles
Les ingénieurs de l'OpenAI travaillent sur les moyens d'utiliser les métadonnées comme méthode de provenance du texte au lieu du filigrane. Les images générées par DALL-E 3 ont déjà C2PA métadonnées.
L'OpenAI estime qu'il est trop tôt pour déterminer l'efficacité de l'ajout de métadonnées aux textes générés par l'IA, mais cette solution présente certains avantages potentiels. Tout d'abord, les métadonnées sont signées cryptographiquement, ce qui élimine le risque de faux positifs.
Le problème de l'utilisation des métadonnées est qu'elles peuvent être facilement supprimées. OpenAI n'a pas expliqué comment les métadonnées seraient appliquées au texte, mais il est extrêmement simple de supprimer les métadonnées C2PA des images générées par l'IA.
Certaines plateformes de médias sociaux suppriment les métadonnées lorsque les images sont téléchargées et le simple fait de faire une capture d'écran de l'image permet de contourner la C2PA. Des solutions de contournement similaires seront-elles efficaces pour les textes générés par l'IA et comportant des métadonnées ?
Si ChatGPT générait du texte et y ajoutait des métadonnées, vous pourriez faire une capture d'écran du texte, l'envoyer à ChatGPT et lui demander de convertir l'image en texte. Adieu les métadonnées.
Mauvais pour les affaires
L'autre raison pour laquelle OpenAI pourrait hésiter à publier l'outil est qu'il ne détecte que le texte généré par ChatGPT. Si les utilisateurs savent que leur contenu généré par l'IA sera facilement repéré, ils passeront rapidement de ChatGPT à une autre plateforme.
Le Wall Street Journal rapporté que l'outil d'OpenAI était prêt à être publié depuis un an et qu'il était efficace à 99%. Le rapport indique que "les employés d'OpenAI ont hésité entre l'engagement déclaré de la startup en faveur de la transparence et leur désir d'attirer et de retenir les utilisateurs".
Une enquête mondiale commandée par OpenAI a montré que l'idée d'un outil de détection de l'IA était soutenue par une marge de 4 contre 1. Cependant, une enquête interne a révélé que près d'un tiers des utilisateurs de ChatGPT seraient rebutés par un détecteur de texte par l'IA.
Les utilisateurs veulent que le contenu généré par l'IA soit facile à repérer, à condition qu'il ne s'agisse pas d'un contenu qu'ils ont eux-mêmes généré.