OpenAI annonce son intention de déployer le GPT-4 pour la modération de contenu

17 août 2023

GPT-4

OpenAI a annoncé le potentiel de GPT-4 pour moderniser la tâche de modération de contenu, en réduisant la nécessité d'une surveillance humaine. 

L'internet est constamment modéré pour éliminer les contenus nuisibles, haineux ou inacceptables, et bien que des algorithmes travaillent déjà en coulisses pour automatiser le processus, l'intuition humaine reste inestimable. 

Les modérateurs de contenu sont chargés de cette responsabilité et doivent trier des contenus parfois traumatisants décrivant des suicides, des tortures et des meurtres.

L'OpenAI envisage un avenir où l'IA rationalisera la modération du contenu en ligne selon les directives propres à chaque plateforme, réduisant ainsi considérablement la pression exercée sur les modérateurs humains. 

Dans un article de blogNous pensons que cela offre une vision plus positive de l'avenir des plateformes numériques, où l'IA peut aider à modérer le trafic en ligne conformément à la politique spécifique de la plateforme et soulager la charge mentale des modérateurs humains, qui sont probablement des centaines de milliers dans le monde entier".

Il s'agit d'un sujet d'actualité, car l'OpenAI a été récemment impliqué dans un scandale impliquant des modérateurs de contenu travaillant pour la société de services de données Sama à Nairobi, au Kenya.

Les travailleurs ont dû trier le contenu des textes graphiques pour améliorer l'"alignement" de ChatGPT - qui décrit la modification des résultats de l'IA en fonction des limites éthiques, morales et politiques "souhaitables" - une pratique très subjective. 

L'équipe de modération du contenu a fait état de conditions de travail traumatisantes et injustes et a adressé une pétition au gouvernement kenyan, qui a abouti à une action en justice.

Selon l'OpenAI, GPT-4 pourrait aider à élaborer des politiques de contenu personnalisées et à les appliquer au contenu à grande échelle. 

En comparant GPT-4 à la modération manuelle, OpenAI a souligné la capacité de l'IA à offrir un étiquetage cohérent et un retour d'information rapide, en expliquant : "Les gens peuvent interpréter les politiques différemment ou certains modérateurs peuvent prendre plus de temps pour assimiler les nouveaux changements de politique, ce qui conduit à des étiquettes incohérentes. En comparaison, les LLM sont sensibles aux différences granulaires de formulation et peuvent s'adapter instantanément aux mises à jour de la politique afin d'offrir une expérience de contenu cohérente aux utilisateurs."

Cependant, malgré le potentiel de GPT-4 pour alléger le fardeau des modérateurs de contenu, OpenAI a admis qu'une automatisation complète du processus n'était probablement pas possible, déclarant : "Comme pour toute application de l'IA, les résultats et la production devront être soigneusement contrôlés, validés et affinés en maintenant les humains dans la boucle."

Comment OpenAI entend tirer parti de GPT-4 pour la modération de contenu

Les plateformes numériques sont confrontées à un défi permanent : modérer rapidement et avec précision de grandes quantités de contenu. 

Historiquement, ce sont des modérateurs humains qui ont assumé les tâches les plus lourdes, avec des conséquences psychologiques potentiellement désastreuses, souvent associées à une faible rémunération. 

OpenAI cherche à tirer parti de GPT-4 pour mettre en œuvre automatiquement des politiques visant à limiter les contenus préjudiciables. L'entreprise a souligné les avantages suivants : 

  • Vitesse: Grâce à GPT-4, les changements de politique de contenu qui prenaient des mois sont désormais effectués en quelques heures.
  • Cohérence: L'interprétation humaine des politiques de contenu peut varier, ce qui entraîne des incohérences. Le GPT-4 offre une approche normalisée en s'adaptant aux ajustements des politiques.
  • Bien-être mental: L'automatisation d'une grande partie du processus de modération du contenu à l'aide de GPT-4 peut réduire la charge émotionnelle des modérateurs humains, qui sont souvent confrontés à des contenus nuisibles ou offensants.

Cependant, l'OpenAI a admis que la modération des contenus évolue rapidement car les humains inventent constamment de nouveaux moyens de contourner les filtres, par exemple en utilisant de nouveaux termes d'argot pour échapper à la détection. 

En outre, la partialité reste un problème, car les décisions du GPT-4 peuvent refléter les biais de ses données d'apprentissage. Cela pourrait conduire à des angles morts ou à un traitement imprévisible de certains contenus.

Il convient de noter que les modérateurs de contenu kenyans effectuaient cette tâche pour aider à aligner ChatGPT.

Ainsi, même l'utilisation de l'IA pour modérer le contenu nécessite en fin de compte un certain niveau d'exposition humaine.

Rejoindre l'avenir


SOUSCRIRE AUJOURD'HUI

Clair, concis, complet. Maîtrisez les développements de l'IA avec DailyAI

Sam Jeans

Sam est un rédacteur scientifique et technologique qui a travaillé dans diverses start-ups spécialisées dans l'IA. Lorsqu'il n'écrit pas, on peut le trouver en train de lire des revues médicales ou de fouiller dans des boîtes de disques vinyles.

×

PDF GRATUIT EXCLUSIF
Gardez une longueur d'avance avec DailyAI

Inscrivez-vous à notre newsletter hebdomadaire et recevez un accès exclusif au dernier eBook de DailyAI : 'Mastering AI Tools : Your 2024 Guide to Enhanced Productivity" (Maîtriser les outils de l'IA : votre guide 2024 pour une meilleure productivité).

*En vous abonnant à notre lettre d'information, vous acceptez nos conditions d'utilisation. Politique de confidentialité et notre Conditions générales d'utilisation