Les modérateurs kenyans de contenu d'IA adressent une pétition au gouvernement pour dénoncer des conditions de travail traumatisantes

2 août 2023

Nairobi AI

La plupart des gens témoigneraient que l'internet est un environnement parfois hostile, mais que se passerait-il si vous étiez exposé chaque jour à ce qu'il y a de pire ?

Les modérateurs de contenu sont chargés de passer au crible les textes, les images et les vidéos et de signaler manuellement les contenus préjudiciables, qu'il s'agisse d'insultes raciales, d'incitations à la haine, de discussions ou de représentations de meurtres et de suicides.

Les effets psychologiques néfastes de ce travail sont bien documentés, que ce soit de manière anecdotique, sous la forme de lettres ouvertes émanant de personnes travaillant dans l'industrie, ou dans le cadre d'études universitaires. 

Le secteur florissant de l'IA générative a alimenté une nouvelle demande de modérateurs de contenu, et, une fois de plus, des histoires provenant de l'intérieur de ce travail difficile commencent à faire surface. 

Au Kenya, les travailleurs du secteur des données s'expriment sur la modération des contenus par l'IA

Au Kenya, plusieurs anciens modérateurs de contenu pour le ChatGPT d'OpenAI ont déposé une pétition auprès du gouvernement kenyan, demandant une enquête sur ce qu'ils décrivent comme des "conditions d'exploitation".

Les activités commerciales d'exploitation en question tournent autour des services contractés par OpenAI auprès de Sama, une société de services d'annotation de données basée en Californie. 

En tant que selon la pétitionTout au long du contrat de formation de ChatGPT, nous n'avons pas bénéficié d'un soutien psychosocial. En raison de l'exposition à ce type de travail, nous avons développé de graves maladies mentales, y compris le SSPT, la paranoïa, la dépression, l'anxiété, l'insomnie, le dysfonctionnement sexuel, pour n'en citer que quelques-unes".

TIME, qui a également enquêté La relation de Sama avec Meta au Kenya sur un projet similaire, a examiné des documents suggérant qu'OpenAI a signé 3 contrats avec Sama pour une valeur d'environ $200.000. Ces contrats portaient sur l'étiquetage de descriptions textuelles d'abus sexuels, de discours haineux et de violence. 

Environ 36 travailleurs répartis en 3 équipes ont travaillé sur le projet, une équipe se concentrant sur chaque sujet. Tous les travailleurs interviewé par TIME ont déclaré que la tâche avait eu un impact sur leur santé mentale. 

Mophat Okinyi, un ancien modérateur, a révélé les conséquences psychologiques de son travail. "Cela a vraiment nui à ma santé mentale", a déclaré Mophat Okini. a déclaré Okinyi. Il se souvient avoir consulté jusqu'à 700 textes par jour, dont beaucoup contenaient des images de violence sexuelle, ce qui l'a conduit à la paranoïa et à l'isolement. Il a fini par perdre sa femme, qui a dit qu'il était un "homme changé".

TIME a rapporté qu'un employé avait dû lire une description graphique de la bestialité en présence d'un enfant, la décrivant comme une "torture". Il a ajouté : "Vous lirez un certain nombre de déclarations de ce genre tout au long de la semaine. Lorsque vous arrivez au vendredi, vous êtes perturbé par cette image".

La pétition kenyane attire l'attention sur les contenus horribles que les contractants devaient examiner et qui comportaient souvent des scènes de violence, d'automutilation, de meurtre, de viol, de nécrophilie, de maltraitance des enfants, de bestialité et d'inceste. Selon un porte-parole de Sama, les travailleurs gagnaient entre $1,46 et $3,74 de l'heure pour ce travail. 

Les bas salaires des services de données liés à l'IA sont bien documentés sur les médias sociaux. l'expérience de la formation Bard"20$/h n'est pas suffisant pour l'horrible traitement que nous recevons, alors je vais tirer chaque centime de ce travail *******."

$20/h est bien loin des moins de $5/h payés au Kenya. Ses entreprises spécialisées dans l'IA devraient-elles être si promptes à courir vers le bas lorsque le travail lui-même est essentiel pour l'entreprise et que le contenu est dangereux ?

La digitaleune ONG juridique à but non lucratif qui soutient les actions intentées par des travailleurs kenyans contre Meta et OpenAI, décrit cette situation comme une exploitation flagrante des bas salaires. 

Cori Crider, directrice de la La digitaleL'externalisation de ces travailleurs est une tactique utilisée par les entreprises technologiques pour se distancer des conditions de travail épouvantables que subissent les modérateurs de contenu".

Pourquoi faut-il des modérateurs de contenu humain ?

L'entraînement des modèles d'IA nécessite un effort humain considérable pour construire et préparer les ensembles de données.

Lorsque l'OpenAI et d'autres développeurs d'IA construisent leurs ensembles de données, ils collectent généralement des données du monde réel, génèrent des données synthétiques et récupèrent des données sur l'internet, y compris des images et des textes provenant de sites web, de forums de messagerie, de forums, etc.

Une fois collectées, les données doivent être prétraitées, notamment en supprimant les contenus nuisibles, haineux et discriminatoires. En outre, les équipes humaines affinent les itérations des modèles d'IA en introduisant des messages potentiellement risqués ou nuisibles et en analysant les réponses.

Ces processus permettent aux chercheurs d'"aligner" l'IA sur des valeurs éthiques et sociales, afin d'obtenir une IA propre et neutre qui n'est pas susceptible d'avoir un comportement volatile. Du moins, c'est l'idéal pour les modèles publics propriétaires comme ChatGPT et Bard.

L'alignement de l'IA est une science très imparfaite qui ne peut être réalisée sans des couches de données humaines.

Si d'autres outils d'IA peuvent pré-filtrer les données, en supprimant les cas les plus flagrants de contenu haineux ou toxique, leur précision est loin d'être assurée, et certains passeront inévitablement à travers les mailles du filet. La tâche est encore compliquée par l'ingéniosité humaine qui invente sans cesse des moyens de contourner le filtrage du contenu par l'IA, par exemple en remplaçant des mots par des emojis, une technique régulièrement utilisée pour contourner les filtres sur les médias sociaux. 

Dans ce cas précis, OpenAI a confirmé à TIME que les employés de Sama au Kenya participaient à l'élaboration d'un outil conçu pour détecter les contenus préjudiciables, qui a finalement été intégré à ChatGPT. 

OpenAI répond à la pétition

À la mi-juillet, l'OpenAI a répondu aux préoccupations concernant l'impact psychologique du travail de modération de contenu. 

Dans une déclaration à ITWeb AfriqueUn porte-parole de l'OpenAI a déclaré : "Nous reconnaissons qu'il s'agit d'un travail difficile pour nos chercheurs et nos travailleurs de l'annotation au Kenya et dans le monde entier - leurs efforts pour assurer la sécurité des systèmes d'IA ont été immensément précieux".

Le porte-parole poursuit : "Notre mission est de construire une AGI (intelligence artificielle générale) sûre et bénéfique, et l'annotation de données humaines est l'un des nombreux volets de notre travail visant à recueillir des commentaires humains et à guider les modèles vers un comportement plus sûr dans le monde réel. Nous pensons que ce travail doit être effectué de manière humaine et volontaire, c'est pourquoi nous établissons et partageons nos propres normes éthiques et de bien-être pour nos annotateurs de données."

Martha Dark, directrice de Foxglove, a déclaré : "ChatGPT est connu dans le monde entier comme un symbole du potentiel de l'IA. Mais comme Facebook avant lui, son succès repose sur une armée de personnes cachées et sous-payées qui font le travail épouvantable de passer au crible les contenus toxiques pour rendre le service sûr. Au Kenya, des modérateurs sont en train de former le premier syndicat de modérateurs de contenu du continent pour riposter. Cette pétition parlementaire est la dernière démonstration en date du pouvoir des travailleurs de la technologie organisés. Foxglove soutient ce mouvement et espère que les députés kenyans apporteront des réformes urgentes au modèle d'externalisation qui permet à des entreprises comme Sama d'être exploitées par des géants étrangers de la technologie.

Mercy Mutemi, associée directrice du cabinet d'avocats kenyan Nzili & Sumbi Advocates, a ajouté : "Les Kényans en ont assez d'être la vache à lait des grandes entreprises technologiques, où d'énormes profits sont extraits puis envoyés à l'étranger, laissant les jeunes travailleurs africains, qui les ont fabriqués, sans emploi et brisés. Je demande instamment aux législateurs d'écouter ces courageux anciens étiqueteurs de données de ChatGPT et d'enquêter immédiatement sur les conditions de travail dans les bureaux de modération de contenu du Kenya".

AI Kenya
L'avocate kenyane Mercy Mutemi a représenté des travailleurs kenyans dans un procès contre Sama et Meta. Source : WSJ.

Dans l'affaire distincte concernant Meta, un Un tribunal kenyan a statué que Meta était responsable des travailleurs, et non Sama, ce qui constitue une décision historique qui pourrait changer la nature de l'externalisation des technologies. 

L'histoire sombre de la modération de contenu

La modération de contenu a une sombre histoire qui remonte aux premiers jours de l'internet.

L'internet moderne est fortement censuré et les contenus préjudiciables de toutes sortes sont en grande partie bannis des sites web grand public. Mais les gens continuent d'essayer, et le fardeau de la protection des communautés en ligne repose souvent sur les épaules humaines.

Le volume de contenus potentiellement offensants est stupéfiant. Comme le rapporte Forbes en 2020L'IA de modération et d'analyse de contenu de Facebook a signalé chaque jour plus de 3 millions de contenus susceptibles d'enfreindre les normes de la communauté. 

Facebook a ensuite employé environ 15 000 modérateurs de contenu qui passent au crible des milliers de contenus chaque jour. Mark Zuckerberg a admis qu'environ 1 contenu sur 10 échappe au filet et passe en direct sur Facebook ou Instagram. 

Malgré les progrès réalisés dans le domaine du filtrage automatisé des contenus, un Étude 2021 Mary's University (Texas) et de l'Université du Texas à Austin a estimé à quelque 100 000 le nombre de modérateurs de contenu travaillant dans le monde. 

Les auteurs notent que l'interprétation humaine est souvent nécessaire en raison des exigences élevées en matière de précision, de la nature subjective de la tâche et des politiques de modération complexes et en constante évolution.

La littérature académique montre que les modérateurs développent des formes de stress post-traumatique (PTSD), de stress, de dépression et d'anxiété, entre autres complications psychiatriques. Les modérateurs de contenu rémunérés sont aux prises avec des contenus dérangeants tout en respectant des quotas stricts de performances professionnelles acceptables et sont souvent mal payés. 

Certains modérateurs de contenu sont confrontés à des contenus extrêmement pénibles lorsqu'ils travaillent sur ce que l'on appelle la "file d'attente de la terreur", c'est-à-dire la file d'attente de modération qui contient les contenus les plus pénibles, notamment les meurtres, les suicides et les tortures.

Dans l'article de The Verge Exposé de 2019 sur la modération de contenu pour Google et YouTubeun modérateur travaillant pour Alphabet à Austin, au Texas, a déclaré : "Si je disais que cela ne m'a pas affecté, ce serait un mensonge complet". Ce que vous voyez tous les jours... cela vous façonne", poursuit-il. "Au début, vous voyiez tout le monde dire "Bonjour, comment allez-vous ?". "Tout le monde était amical. Tout le monde était amical. Maintenant, plus personne ne veut parler aux autres".

Un autre a déclaré : "Chaque jour, on voit quelqu'un décapiter quelqu'un, ou quelqu'un tirer sur sa petite amie. Après cela, vous avez l'impression que ce monde est vraiment fou. Cela vous rend malade. Vous avez l'impression que rien ne vaut la peine d'être vécu. Pourquoi nous infligeons-nous cela les uns aux autres ?"

Tandis que Filtres de contenu IA s'améliorent et allègent la charge des équipes de modération du contenu humain, la surveillance humaine reste essentielle pour capturer le contenu qui détourne le regard.

En fin de compte, lorsqu'il s'agit de constituer des ensembles de données de formation à l'IA, un certain niveau d'exposition humaine à des contenus préjudiciables est en grande partie inévitable. 

Si les tribunaux kenyans se prononcent en faveur des modérateurs de contenu et que d'autres sous-traitants suivent leur exemple, les entreprises d'IA n'auront pas d'autre choix que de verser une rémunération équitable pour cette tâche éreintante.

En effet, la performance de leurs modèles en dépend.

Rejoindre l'avenir


SOUSCRIRE AUJOURD'HUI

Clair, concis, complet. Maîtrisez les développements de l'IA avec DailyAI

Sam Jeans

Sam est un rédacteur scientifique et technologique qui a travaillé dans diverses start-ups spécialisées dans l'IA. Lorsqu'il n'écrit pas, on peut le trouver en train de lire des revues médicales ou de fouiller dans des boîtes de disques vinyles.

×

PDF GRATUIT EXCLUSIF
Gardez une longueur d'avance avec DailyAI

Inscrivez-vous à notre newsletter hebdomadaire et recevez un accès exclusif au dernier eBook de DailyAI : 'Mastering AI Tools : Your 2024 Guide to Enhanced Productivity" (Maîtriser les outils de l'IA : votre guide 2024 pour une meilleure productivité).

*En vous abonnant à notre lettre d'information, vous acceptez nos conditions d'utilisation. Politique de confidentialité et notre Conditions générales d'utilisation