Kenyanske AI-indholdsmoderatorer indgiver underskriftsindsamling til regeringen om traumatiske arbejdsforhold

2. august 2023

Nairobi AI

De fleste kan skrive under på, at internettet til tider er et fjendtligt miljø, men hvad nu, hvis man hver dag blev udsat for det allerværste, det har at byde på?

Indholdsmoderatorer har til opgave at gennemgå tekst, billeder og video og manuelt markere skadeligt indhold, lige fra racistiske tilråb og hadefuld tale til diskussioner om eller skildringer af mord og selvmord.

De skadelige psykologiske virkninger af jobbet er veldokumenterede, både anekdotisk i form af åbne breve fra folk i branchen og i akademiske undersøgelser. 

Den spirende generative AI-industri har skabt ny efterspørgsel efter indholdsmoderatorer, og igen begynder historier fra det udfordrende job at dukke op til overfladen. 

Datamedarbejdere i Kenya taler ud om AI-indholdsmoderation

I Kenya har flere tidligere indholdsmoderatorer for OpenAI's ChatGPT indgivet et andragende til den kenyanske regering med krav om en undersøgelse af det, de beskriver som "udnyttende forhold".

De pågældende udnyttende forretningsaktiviteter drejer sig om OpenAI's kontrakt med Sama, en virksomhed, der leverer dataannotationstjenester med base i Californien. 

Som ifølge petitionen"Under hele kontrakten om at træne ChatGPT fik vi ikke psykosocial støtte. På grund af eksponeringen for denne form for arbejde, træning af ChatGPT, har vi udviklet alvorlige psykiske sygdomme, herunder PTSD, paranoia, depression, angst, søvnløshed, seksuel dysfunktion, for at nævne nogle få."

TIME, som også undersøgte Samas forhold til Meta i Kenya på et lignende projekt, gennemgik dokumenter, der tyder på, at OpenAI underskrev 3 kontrakter med Sama til en værdi af omkring $200.000. Kontrakterne involverede mærkning af tekstbeskrivelser af seksuelt misbrug, hadefuld tale og vold. 

Omkring 36 medarbejdere i 3 teams arbejdede på projektet, et med fokus på hvert emne. Alle medarbejdere interviewet af TIME sagde, at opgaven påvirkede deres mentale helbred. 

Mophat Okinyi, en tidligere moderator, afslørede den psykologiske belastning, som arbejdet har haft på ham. "Det har virkelig skadet mit mentale helbred," sagde Okinyi. Han fortalte, at han så op til 700 tekstpassager om dagen, hvoraf mange indeholdt grafisk seksuel vold, hvilket førte til paranoia og isolation. Til sidst mistede han sin kone, som sagde, at han var en "forandret mand".

TIME rapporterede, at en medarbejder skulle læse en grafisk beskrivelse af bestialitet i overværelse af et barn, der beskrev det som "tortur". Han fortsatte med at sige: "Du vil læse en række af den slags udsagn i løbet af ugen. Når det bliver fredag, er du forstyrret af at tænke det billede igennem."

Andragendet fra Kenya henleder opmærksomheden på det forfærdelige indhold, som entreprenørerne skulle gennemgå, og som ofte involverede scener med vold, selvskade, mord, voldtægt, nekrofili, børnemishandling, bestialitet og incest. Ifølge en talsmand for Sama tjente arbejderne mellem $1,46 og $3,74 i timen for jobbet. 

Lave lønninger for AI-relaterede datatjenester er veldokumenterede på de sociale medier, hvor en Redditor taler om deres erfaring med at træne Bard"20$/time er ikke nok for den forfærdelige behandling, vi får, så jeg vil presse hver en øre ud af dette ******* job."

$20/time er langt fra de under $5/time, der betales i Kenya. SBør AI-virksomheder være så hurtige til at løbe mod bunden, når selve arbejdet er forretningskritisk og indholdet farligt?

Fingerbøl, en non-profit juridisk NGO, der støtter kenyanske arbejderes sager mod Meta og OpenAI, beskriver dette som åbenlys udnyttelse af lavtlønnet arbejdskraft. 

Cori Crider, direktør for Fingerbøl"Outsourcingen af disse medarbejdere er en taktik fra teknologivirksomhedernes side for at distancere sig fra de forfærdelige arbejdsforhold, som indholdsmoderatorer lever under."

Hvorfor er der brug for menneskelige indholdsmoderatorer?

Træning af AI-modeller kræver en betydelig menneskelig indsats for at opbygge og forberede datasæt.

Når OpenAI og andre AI-udviklere bygger deres datasæt, indsamler de typisk data fra den virkelige verden, genererer syntetiske data og skraber data fra internettet, herunder billeder og tekst fra hjemmesider, messaging boards, fora og så videre.

Når dataene er indsamlet, skal de forbehandles, bl.a. ved at fjerne skadeligt, hadefuldt og diskriminerende indhold. Desuden finjusterer menneskelige teams iterationer af AI-modeller ved at indtaste potentielt risikable eller skadelige opfordringer og analysere svarene.

Disse processer gør det muligt for forskere at "tilpasse" AI'en til etiske og sociale værdier og opnå en ren, neutral AI, der ikke er modtagelig for ustabil adfærd. Eller det er i hvert fald idealet for proprietære offentlige modeller som ChatGPT og Bard.

AI-tilpasning er en meget ufuldkommen videnskab, som ikke kan opnås uden flere lag af menneskeligt input.

Mens andre AI-værktøjer kan forfiltrere data og fjerne mere åbenlyse tilfælde af hadefuldt eller giftigt indhold, er deres nøjagtighed langt fra garanteret, og noget vil uundgåeligt slippe igennem nettet. Opgaven kompliceres yderligere af den menneskelige opfindsomhed, der konstant opfinder måder at omgå AI-indholdsfiltrering på, for eksempel ved at erstatte ord med emojis, en teknik, der jævnligt bruges til at omgå filtre på sociale medier. 

I dette særlige scenarie bekræftede OpenAI over for TIME, at Sama-medarbejdere i Kenya hjalp med at opbygge et værktøj, der var designet til at opdage skadeligt indhold, og som til sidst blev indbygget i ChatGPT. 

OpenAI svarer på underskriftsindsamlingen

I midten af juli reagerede OpenAI på bekymringerne om de psykologiske konsekvenser af arbejdet med indholdsmoderering. 

I en udtalelse til ITWeb AfrikaEn talsmand for OpenAI sagde: "Vi anerkender, at dette er et udfordrende arbejde for vores forskere og annotationsmedarbejdere i Kenya og rundt om i verden - deres indsats for at sikre sikkerheden i AI-systemer har været enormt værdifuld."

Talsmanden fortsætter: "Vores mission er at opbygge sikker og gavnlig AGI (kunstig generel intelligens), og menneskelig dataanmærkning er en af de mange strømme i vores arbejde med at indsamle menneskelig feedback og guide modellerne mod en mere sikker adfærd i den virkelige verden. Vi mener, at dette arbejde skal udføres humant og frivilligt, og derfor etablerer og deler vi vores egne etiske standarder og wellness-standarder for vores dataannotatorer."

Martha Dark, direktør for Foxglove, siger: "ChatGPT er verdensberømt som et symbol på AI's potentiale. Men ligesom Facebook er dens succes bygget på en hær af skjulte og underbetalte mennesker, som udfører det grusomme arbejde med at gennemgå giftigt indhold for at gøre tjenesten sikker. Moderatorer i Kenya er ved at danne den første fagforening for indholdsmoderatorer på kontinentet for at kæmpe imod. Dette parlamentariske andragende er den seneste demonstration af de organiserede tech-arbejderes magt. Foxglove støtter denne bevægelse - og håber, at kenyanske parlamentsmedlemmer hurtigst muligt vil reformere den outsourcingmodel, der gør det muligt for virksomheder som Sama at blive udnyttet af udenlandske tech-giganter."

Mercy Mutemi, managing partner i det kenyanske advokatfirma Nzili & Sumbi Advocates, tilføjede: "Kenyanerne har fået nok af at være big tech's cash cow, hvor enorme overskud udvindes og sendes til udlandet og efterlader de unge afrikanske arbejdere, som skabte dem, arbejdsløse og ødelagte. Jeg opfordrer lovgiverne til at lytte til disse modige tidligere ChatGPT-datalabels og straks undersøge arbejdsforholdene i Kenyas indholdsmodereringskontorer."

AI Kenya
Den kenyanske advokat Mercy Mutemi repræsenterede kenyanske arbejdere i en retssag mod Sama og Meta. Kilde: WSJ.

I den separate sag, der involverede Meta, var en Kenyansk domstol afgjorde at Meta var ansvarlig for arbejderne, ikke Sama, hvilket er en skelsættende beslutning, der kan ændre karakteren af teknologisk outsourcing. 

Indholdsmoderationens mørke historie

Indholdsmoderation har en dyster historie, der går tilbage til internettets tidlige dage.

Det moderne internet er stærkt censureret, og skadeligt indhold af forskellig art er stort set bandlyst fra almindelige hjemmesider. Men folk forsøger stadig, og byrden med at beskytte onlinefællesskaber falder ofte på menneskers skuldre.

Alene mængden af potentielt stødende indhold er svimlende. Som rapporteret af Forbes i 2020Facebooks indholdsanalyse og modererings-AI markerede dagligt over 3 millioner stykker indhold, som muligvis overtrådte deres fællesskabsstandarder. 

Facebook ansatte dengang omkring 15.000 indholdsmoderatorer, som hver dag gennemgår tusindvis af stykker indhold. Mark Zuckerberg indrømmede, at cirka 1 ud af 10 stykker indhold undslipper nettet og går live på Facebook eller Instagram. 

På trods af fremskridt inden for automatiseret indholdsfiltrering er en Undersøgelse i 2021 Mary's University, Texas, og University of Texas i Austin anslog, at der er omkring 100.000 indholdsmoderatorer på verdensplan. 

Forfatterne bemærker, at menneskelig fortolkning ofte er nødvendig på grund af høje krav til nøjagtighed, opgavens subjektive karakter og komplekse, stadigt skiftende moderationspolitikker.

Akademisk litteratur dokumenterer, at moderatorer udvikler former for posttraumatisk stresslidelse (PTSD), stress, depression og angst, blandt andre psykiatriske komplikationer. Betalte indholdsmoderatorer kæmper med forstyrrende indhold, mens de opretholder strenge kvoter for acceptabel jobpræstation og ofte får lave lønninger. 

Nogle indholdsmoderatorer udsættes for ekstremt foruroligende indhold, når de arbejder med det, der er blevet kendt som "terrorkøen" - moderationskøen med det mest foruroligende indhold, herunder mord, selvmord og tortur.

I The Verge's 2019-eksponering af indholdsmoderation for Google og YouTubeen moderator, der arbejder for Alphabet i Austin, Texas, sagde: "Hvis jeg sagde, at det ikke påvirkede mig, ville det være en stor løgn." "Det, du ser hver dag ... det former dig", og fortsætter: "I begyndelsen så du alle sige: 'Hej, hvordan går det?'" "Alle var venlige. De gik rundt og tjekkede ind. Nu er der ikke engang nogen, der vil tale med de andre."

En anden sagde: "Hver dag ser man nogen halshugge nogen, eller nogen skyde sin kæreste. Efter det føler man, at denne verden virkelig er skør. Det får dig til at føle dig syg. Du føler, at der ikke er noget, der er værd at leve for. Hvorfor gør vi det her mod hinanden?"

Mens AI-indholdsfiltre forbedres, hvilket mindsker byrden på menneskelige indholdsmoderationsteams, er menneskeligt tilsyn stadig afgørende for at fange indhold, der vender blikket bort.

I sidste ende er en vis grad af menneskelig eksponering for skadeligt indhold stort set uundgåelig, når det drejer sig om at opbygge AI-træningsdatasæt. 

Hvis de kenyanske domstole giver indholdsmoderatorerne medhold, og andre outsourcede entreprenører følger deres eksempel, vil AI-virksomheder ikke have andet valg end at betale en rimelig kompensation for denne opslidende opgave.

Når alt kommer til alt, afhænger deres modellers ydeevne af det.

Deltag i fremtiden


TILMELD DIG I DAG

Klar, kortfattet, omfattende. Få styr på AI-udviklingen med DailyAI

Sam Jeans

Sam er videnskabs- og teknologiforfatter og har arbejdet i forskellige AI-startups. Når han ikke skriver, kan han finde på at læse medicinske tidsskrifter eller grave i kasser med vinylplader.

×

GRATIS PDF EKSKLUSIVT
Vær på forkant med DailyAI

Tilmeld dig vores ugentlige nyhedsbrev og få eksklusiv adgang til DailyAI's seneste e-bog: 'Mastering AI Tools: Din 2024-guide til forbedret produktivitet'.

*Ved at tilmelde dig vores nyhedsbrev accepterer du vores Politik for beskyttelse af personlige oplysninger og vores Vilkår og betingelser