OpenAI a annoncé le potentiel de GPT-4 pour moderniser la tâche de modération de contenu, en réduisant la nécessité d'une surveillance humaine.
L'internet est constamment modéré pour éliminer les contenus nuisibles, haineux ou inacceptables, et bien que des algorithmes travaillent déjà en coulisses pour automatiser le processus, l'intuition humaine reste inestimable.
Les modérateurs de contenu sont chargés de cette responsabilité et doivent trier des contenus parfois traumatisants décrivant des suicides, des tortures et des meurtres.
L'OpenAI envisage un avenir où l'IA rationalisera la modération du contenu en ligne selon les directives propres à chaque plateforme, réduisant ainsi considérablement la pression exercée sur les modérateurs humains.
Dans un article de blogNous pensons que cela offre une vision plus positive de l'avenir des plateformes numériques, où l'IA peut aider à modérer le trafic en ligne conformément à la politique spécifique de la plateforme et soulager la charge mentale des modérateurs humains, qui sont probablement des centaines de milliers dans le monde entier".
Il s'agit d'un sujet d'actualité, car l'OpenAI a été récemment impliqué dans un scandale impliquant des modérateurs de contenu travaillant pour la société de services de données Sama à Nairobi, au Kenya.
Les travailleurs ont dû trier le contenu des textes graphiques pour améliorer l'"alignement" de ChatGPT - qui décrit la modification des résultats de l'IA en fonction des limites éthiques, morales et politiques "souhaitables" - une pratique très subjective.
L'équipe de modération du contenu a fait état de conditions de travail traumatisantes et injustes et a adressé une pétition au gouvernement kenyan, qui a abouti à une action en justice.
Selon l'OpenAI, GPT-4 pourrait aider à élaborer des politiques de contenu personnalisées et à les appliquer au contenu à grande échelle.
En comparant GPT-4 à la modération manuelle, OpenAI a souligné la capacité de l'IA à offrir un étiquetage cohérent et un retour d'information rapide, en expliquant : "Les gens peuvent interpréter les politiques différemment ou certains modérateurs peuvent prendre plus de temps pour assimiler les nouveaux changements de politique, ce qui conduit à des étiquettes incohérentes. En comparaison, les LLM sont sensibles aux différences granulaires de formulation et peuvent s'adapter instantanément aux mises à jour de la politique afin d'offrir une expérience de contenu cohérente aux utilisateurs."
Cependant, malgré le potentiel de GPT-4 pour alléger le fardeau des modérateurs de contenu, OpenAI a admis qu'une automatisation complète du processus n'était probablement pas possible, déclarant : "Comme pour toute application de l'IA, les résultats et la production devront être soigneusement contrôlés, validés et affinés en maintenant les humains dans la boucle."
Comment OpenAI entend tirer parti de GPT-4 pour la modération de contenu
Les plateformes numériques sont confrontées à un défi permanent : modérer rapidement et avec précision de grandes quantités de contenu.
Historiquement, ce sont des modérateurs humains qui ont assumé les tâches les plus lourdes, avec des conséquences psychologiques potentiellement désastreuses, souvent associées à une faible rémunération.
OpenAI cherche à tirer parti de GPT-4 pour mettre en œuvre automatiquement des politiques visant à limiter les contenus préjudiciables. L'entreprise a souligné les avantages suivants :
- Vitesse: Grâce à GPT-4, les changements de politique de contenu qui prenaient des mois sont désormais effectués en quelques heures.
- Cohérence: L'interprétation humaine des politiques de contenu peut varier, ce qui entraîne des incohérences. Le GPT-4 offre une approche normalisée en s'adaptant aux ajustements des politiques.
- Bien-être mental: L'automatisation d'une grande partie du processus de modération du contenu à l'aide de GPT-4 peut réduire la charge émotionnelle des modérateurs humains, qui sont souvent confrontés à des contenus nuisibles ou offensants.
Cependant, l'OpenAI a admis que la modération des contenus évolue rapidement car les humains inventent constamment de nouveaux moyens de contourner les filtres, par exemple en utilisant de nouveaux termes d'argot pour échapper à la détection.
En outre, la partialité reste un problème, car les décisions du GPT-4 peuvent refléter les biais de ses données d'apprentissage. Cela pourrait conduire à des angles morts ou à un traitement imprévisible de certains contenus.
Il convient de noter que les modérateurs de contenu kenyans effectuaient cette tâche pour aider à aligner ChatGPT.
Ainsi, même l'utilisation de l'IA pour modérer le contenu nécessite en fin de compte un certain niveau d'exposition humaine.