De meeste mensen zullen getuigen dat het internet een soms vijandige omgeving is, maar wat als je elke dag blootgesteld zou worden aan het allerergste wat het te bieden heeft?
Inhoudsmoderatoren hebben de taak om tekst, afbeeldingen en video's door te nemen en handmatig schadelijke inhoud te markeren, van racistische opmerkingen en haatdragende taal tot discussies of afbeeldingen van moord en zelfmoord.
De schadelijke psychologische gevolgen van het werk zijn goed gedocumenteerd, zowel anekdotisch in de vorm van open brieven van mensen uit de industrie als in academische studies.
De bloeiende generatieve AI-industrie heeft de vraag naar content moderators doen toenemen, en opnieuw komen er verhalen naar boven over die uitdagende baan.
Gegevenswerkers in Kenia spreken zich uit over AI-contentmoderatie
In Kenia hebben verschillende voormalige content moderators voor OpenAI's ChatGPT een petitie ingediend bij de Keniaanse overheid, waarin ze een onderzoek eisen naar wat zij beschrijven als "uitbuitende omstandigheden".
De uitbuitende zakelijke activiteiten in kwestie draaien om OpenAI's gecontracteerde diensten van Sama, een data annotation services bedrijf gevestigd in Californië.
Als volgens het verzoekschriftGedurende het contract van de ChatGPT-training kregen we geen psychosociale ondersteuning. Door de blootstelling aan dit soort werk, het trainen van ChatGPT, hebben we ernstige psychische aandoeningen ontwikkeld, waaronder PTSS, paranoia, depressie, angst, slapeloosheid en seksuele disfunctie, om er maar een paar te noemen."
TIME, die ook onderzoek deed naar Sama's relatie met Meta in Kenia aan een gelijkaardig project, bekeek documenten waaruit bleek dat OpenAI 3 contracten had getekend met Sama ter waarde van ongeveer $200,000. De contracten hadden betrekking op het labelen van tekstuele beschrijvingen van seksueel misbruik, haatzaaiende taal en geweld.
Ongeveer 36 arbeiders in 3 teams werkten aan het project, één gericht op elk onderwerp. Alle medewerkers geïnterviewd door TIME zei dat de taak invloed had op hun geestelijke gezondheid.
Mophat Okinyi, een voormalig moderator, onthulde welke psychologische tol het werk op hem heeft geëist. "Het heeft echt schade toegebracht aan mijn geestelijke gezondheid," zei Mophat Okinyi. zei Okinyi. Hij herinnerde zich dat hij tot 700 tekstpassages per dag bekeek, waarvan vele grafisch seksueel geweld bevatten, wat leidde tot paranoia en isolatie. Uiteindelijk verloor hij zijn vrouw, die zei dat hij een "veranderde man" was.
TIME meldde dat een medewerker een grafische beschrijving van bestialiteit moest voorlezen in het bijzijn van een kind, waarbij hij het beschreef als "Marteling". Hij zei verder: "Je leest de hele week door een aantal van dat soort uitspraken. Tegen de tijd dat het vrijdag is, ben je gestoord van het doordenken van dat beeld."
De Keniaanse petitie vestigt de aandacht op de gruwelijke inhoud die de contractanten moesten bekijken, waarin vaak geweld, zelfverminking, moord, verkrachting, necrofilie, kindermisbruik, bestialiteit en incest voorkomen. Volgens een woordvoerder van Sama verdienden de werknemers tussen de $1,46 en $3,74 per uur voor hun werk.
Lage lonen voor AI-gerelateerde datadiensten zijn goed gedocumenteerd op sociale media, waarbij een Redditor sprak over hun ervaring met training Bard"20$/uur is niet genoeg voor de vreselijke behandeling die we krijgen, dus ik ga elke cent uit deze ******* baan persen."
$20/uur is ver verwijderd van de sub-$5/uur die in Kenia wordt betaald. SMoeten AI-bedrijven zo snel naar de bodem racen als het werk zelf bedrijfskritisch en de inhoud gevaarlijk is?
Vingerhoedskruid, een juridische NGO zonder winstoogmerk die de zaken van Keniaanse arbeiders tegen Meta en OpenAI ondersteunt, beschrijft dit als flagrante uitbuiting van laagbetaalde arbeid.
Nu vragen vier voormalige data-labellers het Keniaanse parlement om een einde te maken aan deze uitbuiting - en aan de louche uitbesteding door bedrijven als Sama, die jonge Afrikanen lokken met het vooruitzicht op een technische baan, om ze vervolgens weg te gooien als ze op zoek durven te gaan naar een betere deal.
- Foxglove (@Foxglovelegal) 12 juli 2023
Cori Crider, directeur van Vingerhoedskruid, stelde: "Het uitbesteden van deze werknemers is een tactiek van techbedrijven om zich te distantiëren van de vreselijke werkomstandigheden die content moderators moeten doorstaan."
Deze medewerkers modereerden inhoud over seksueel misbruik van kinderen, incest, bestialiteit, verkrachting, sekshandel en seksslavernij.
Ze kregen geen echte psychiatrische ondersteuning - en ze werkten voor een hongerloon. Lees @_KarenHaohet volledige rapport: https://t.co/q8ion4vuNx
- Foxglove (@Foxglovelegal) 25 juli 2023
Waarom zijn menselijke inhoudsbeheerders nodig?
Het trainen van AI-modellen vereist veel menselijke inspanning om datasets te bouwen en voor te bereiden.
Wanneer OpenAI en andere AI-ontwikkelaars hun datasets samenstellen, verzamelen ze meestal gegevens uit de echte wereld, genereren ze synthetische gegevens en schrapen ze gegevens van het internet, waaronder afbeeldingen en tekst van websites, prikborden, forums enzovoort.
Zodra de gegevens zijn verzameld, moeten ze worden voorbewerkt, inclusief het verwijderen van schadelijke, haatdragende en discriminerende inhoud. Bovendien verfijnen menselijke teams iteraties van AI-modellen door potentieel riskante of schadelijke prompts in te voeren en de reacties te analyseren.
Deze processen stellen onderzoekers in staat om de AI "af te stemmen" op ethische en sociale waarden, waardoor een schone, neutrale AI ontstaat die niet vatbaar is voor vluchtig gedrag. Tenminste, dat is het ideaal voor gepatenteerde publieke modellen zoals ChatGPT en Bard.
AI-uitlijning is een zeer onvolmaakte wetenschap die niet kan worden bereikt zonder lagen van menselijke inbreng.
Hoewel andere AI-tools gegevens vooraf kunnen filteren en meer openlijke gevallen van hatelijke of giftige inhoud kunnen verwijderen, is hun nauwkeurigheid verre van gegarandeerd en zullen er onvermijdelijk enkele door de mazen van het net glippen. De taak wordt verder bemoeilijkt door de menselijke vindingrijkheid om voortdurend manieren te bedenken om AI-inhoud te filteren, bijvoorbeeld door woorden te vervangen door emoji's, een techniek die regelmatig wordt gebruikt om filters op sociale media te omzeilen.
In dit specifieke scenario bevestigde OpenAI aan TIME dat Sama-werknemers in Kenia meewerkten aan de ontwikkeling van een tool om schadelijke inhoud te detecteren, die uiteindelijk werd ingebouwd in ChatGPT.
OpenAI reageert op de petitie
Half juli reageerde OpenAI op de bezorgdheid over de psychologische impact van content moderatie.
In een verklaring aan ITWeb AfrikaEen woordvoerder van OpenAI zei: "We erkennen dat dit uitdagend werk is voor onze onderzoekers en annotatiemedewerkers in Kenia en over de hele wereld - hun inspanningen om de veiligheid van AI-systemen te garanderen zijn enorm waardevol geweest."
De woordvoerder vervolgde: "Het is onze missie om veilige en nuttige AGI (kunstmatige algemene intelligentie) te bouwen, en menselijke data annotatie is een van de vele stromen van ons werk om menselijke feedback te verzamelen en de modellen te sturen in de richting van veiliger gedrag in de echte wereld. Wij geloven dat dit werk menselijk en gewillig moet worden gedaan en daarom stellen we onze eigen ethische en welzijnsnormen voor onze data annotators op en delen deze."
Martha Dark, de directeur van Foxglove: "ChatGPT is wereldberoemd als symbool van het potentieel van AI. Maar net als bij Facebook is het succes van ChatGPT gebaseerd op een leger van verborgen en onderbetaalde mensen die het gruwelijke werk doen van het doorzeven van giftige content om de service veilig te maken. Moderatoren in Kenia vormen de eerste vakbond van content moderatoren op het continent om terug te vechten. Deze parlementaire petitie is de meest recente demonstratie van de kracht van georganiseerde technische werkers. Foxglove steunt deze beweging - en hoopt dat Keniaanse parlementsleden dringend hervormingen zullen doorvoeren in het outsourcingmodel dat bedrijven als Sama in staat stelt om uitbuiting door buitenlandse techgiganten mogelijk te maken."
Mercy Mutemi, managing partner van het Keniaanse advocatenkantoor Nzili & Sumbi Advocates, voegde daaraan toe: "Kenianen hebben er genoeg van om de melkkoe van big tech te zijn, waar enorme winsten worden gemaakt die vervolgens naar het buitenland worden gestuurd, terwijl de jonge Afrikaanse werknemers, die ze hebben gemaakt, werkloos en gebroken achterblijven. Ik dring er bij de wetgevers op aan om te luisteren naar deze dappere voormalige ChatGPT data labellers en onmiddellijk een onderzoek in te stellen naar de werkomstandigheden in Kenia's content moderatie kantoren."
In de aparte zaak met Meta, een Keniaanse rechtbank beslist dat Meta verantwoordelijk was voor de werknemers, niet Sama, wat een mijlpaal was in de beslissing die de aard van outsourcing van technologie zou kunnen veranderen.
De duistere geschiedenis van moderatie
Content moderatie heeft een grimmige geschiedenis die teruggaat tot de begindagen van het internet.
Het moderne internet wordt in hoge mate gecensureerd en schadelijke inhoud van verschillende soorten wordt grotendeels geweerd van mainstream websites. Maar mensen proberen het nog steeds en de last van het beschermen van online gemeenschappen rust vaak op de schouders van mensen.
De enorme hoeveelheid potentieel aanstootgevende inhoud is onthutsend. Zoals gemeld door Forbes in 2020De inhoudsanalyse en moderatie-AI van Facebook markeerde dagelijks meer dan 3 miljoen stukken inhoud die mogelijk hun communitystandaarden schonden.
Facebook heeft dan ongeveer 15.000 inhoudsmoderatoren in dienst die elke dag duizenden stukken inhoud doorzeven. Mark Zuckerberg gaf toe dat ongeveer 1 op de 10 stukken content aan het net ontsnapt en live gaat op Facebook of Instagram.
Ondanks de vooruitgang in het automatisch filteren van inhoud, is een 2021 studie door onderzoekers van Virginia Tech, St. Mary's University, Texas, en de University of Texas in Austin schatte dat er wereldwijd zo'n 100.000 content moderators aan het werk zijn.
De auteurs merken op dat menselijke interpretatie vaak nodig is vanwege de hoge nauwkeurigheidseisen, de subjectieve aard van de taak en het complexe, steeds veranderende moderatiebeleid.
Academische literatuur toont aan dat moderatoren vormen van posttraumatische stressstoornis (PTSS), stress, depressie en angst ontwikkelen, naast andere psychiatrische complicaties. Betaalde content moderators worstelen met verontrustende content terwijl ze strikte quota's voor aanvaardbare werkprestaties handhaven en krijgen vaak een laag loon.
Sommige inhoudsmoderatoren krijgen te maken met extreem verontrustende inhoud terwijl ze werken aan wat bekend staat als de "terreurwachtrij" - de moderatiewachtrij met de meest verontrustende inhoud, waaronder moord, zelfmoord en marteling.
In The Verge's 2019 onthulling van inhoudsmoderatie voor Google en YouTube, een moderator die voor Alphabet werkt in Austin, Texas, zei: "Als ik zou zeggen dat het me niet heeft beïnvloed, dan is dat een complete leugen." "Wat je elke dag ziet ... het vormt je," vervolgt, "In het begin zag je iedereen zeggen: 'Hoi, hoe gaat het?'". "Iedereen was vriendelijk. Ze gingen rond om te controleren. Nu wil niemand zelfs maar met de anderen praten."
Een ander zei: "Elke dag zie je iemand iemand onthoofden, of iemand die zijn vriendin neerschiet. Daarna heb je het gevoel van wow, deze wereld is echt gek. Daardoor voel je je ziek. Je hebt het gevoel dat er niets is dat het waard is om voor te leven. Waarom doen we elkaar dit aan?"
Terwijl AI-inhoudfilters verbeteren, waardoor de druk op menselijke content moderatieteams afneemt, blijft menselijk toezicht cruciaal voor het vastleggen van content die hun blik afwendt.
Uiteindelijk is een zekere mate van menselijke blootstelling aan schadelijke inhoud grotendeels onvermijdelijk als het gaat om het opbouwen van AI-trainingsdatasets.
Als Keniaanse rechtbanken de content moderators in het gelijk stellen en andere uitbestede aannemers hun voorbeeld volgen, hebben AI-bedrijven geen andere keuze dan een eerlijke vergoeding te betalen voor deze slopende taak.
De prestaties van hun modellen zijn er immers van afhankelijk.