Kenyanske AI-innholdsmoderatorer ber myndighetene om hjelp på grunn av traumatiske arbeidsforhold

2. august 2023

Nairobi AI

De fleste kan skrive under på at internett til tider er et fiendtlig miljø, men hva om du hver dag ble utsatt for det aller verste det har å by på?

Innholdsmoderatorer har i oppgave å gå gjennom tekst, bilder og video og manuelt flagge skadelig innhold, fra rasistiske ytringer og hatefulle ytringer til diskusjoner om eller skildringer av drap og selvmord.

De psykiske skadevirkningene av jobben er godt dokumentert, både anekdotisk i form av åpne brev fra folk i bransjen og i akademiske studier. 

Den voksende generative AI-industrien har skapt ny etterspørsel etter innholdsmoderatorer, og nok en gang begynner historier fra innsiden av den utfordrende jobben å komme til overflaten. 

Datamedarbeidere i Kenya snakker ut om AI-moderering av innhold

I Kenya har flere tidligere innholdsmoderatorer for OpenAIs ChatGPT sendt en begjæring til kenyanske myndigheter med krav om en granskning av det de beskriver som "utnyttende forhold".

Den aktuelle utnyttende forretningsvirksomheten dreier seg om OpenAIs innleide tjenester fra Sama, et selskap som tilbyr dataannotasjonstjenester med base i California. 

Som ifølge begjæringen"Gjennom hele kontrakten om opplæring av ChatGPT fikk vi ikke psykososial støtte. På grunn av eksponeringen for denne typen arbeid, opplæring av ChatGPT, har vi utviklet alvorlige psykiske lidelser, inkludert PTSD, paranoia, depresjon, angst, søvnløshet, seksuell dysfunksjon, for å nevne noen."

TIME, som også har undersøkt Samas forhold til Meta i Kenya på et lignende prosjekt, gjennomgikk dokumenter som tydet på at OpenAI hadde inngått tre kontrakter med Sama til en verdi av rundt $200 000. Kontraktene omfattet merking av tekstlige beskrivelser av seksuelle overgrep, hatefulle ytringer og vold. 

Rundt 36 medarbeidere fordelt på tre team arbeidet med prosjektet, ett med fokus på hvert emne. Alle medarbeiderne intervjuet av TIME sa at oppgaven påvirket deres mentale helse. 

Mophat Okinyi, en tidligere moderator, avslørte den psykiske belastningen arbeidet har hatt på ham. "Det har virkelig skadet den mentale helsen min," sa Okinyi. Han husket at han så opptil 700 tekstpassasjer om dagen, mange av dem inneholdt grov seksuell vold, noe som førte til paranoia og isolasjon. Til slutt mistet han sin kone, som sa at han var en "forandret mann".

TIME rapporterte at en ansatt måtte lese en grafisk beskrivelse av bestialitet i nærvær av et barn, og beskrev det som "tortur". Han fortsatte med å si: "Du kommer til å lese en rekke slike utsagn gjennom hele uken. Når vi kommer til fredag, er du forstyrret av å tenke gjennom det bildet."

Oppropet fra Kenya retter oppmerksomheten mot det forferdelige innholdet entreprenørene måtte gjennomgå, som ofte inneholdt scener med vold, selvskading, drap, voldtekt, nekrofili, barnemishandling, bestialitet og incest. Ifølge en talsperson for Sama tjente arbeiderne mellom $1,46 og $3,74 i timen for jobben. 

Lave lønninger for AI-relaterte datatjenester er veldokumentert på sosiale medier, og en Redditor forteller om sine erfaring med opplæring av Bard"20$/time er ikke nok for den forferdelige behandlingen vi får, så jeg skal presse hver eneste cent ut av denne ******* jobben."

$20/time er langt unna de under $5/time som betales i Kenya. Ser det grunn til at AI-selskaper er så raske til å kappløpe mot bunnen når arbeidet i seg selv er forretningskritisk og innholdet farlig?

Revebjelle, en ideell juridisk NGO som støtter kenyanske arbeideres saker mot Meta og OpenAI, beskriver dette som åpenbar utnyttelse av lavtlønnet arbeidskraft. 

Cori Crider, direktør for Revebjelle"Outsourcingen av disse arbeiderne er en taktikk fra teknologiselskapene for å distansere seg fra de forferdelige arbeidsforholdene som innholdsmoderatorene lever under."

Hvorfor er det behov for menneskelige innholdsmoderatorer?

Opplæring av AI-modeller krever betydelig menneskelig innsats for å bygge og klargjøre datasett.

Når OpenAI og andre AI-utviklere bygger datasettene sine, samler de vanligvis inn data fra den virkelige verden, genererer syntetiske data og skraper data fra Internett, inkludert bilder og tekst fra nettsteder, meldingstavler, fora og så videre.

Når dataene er samlet inn, må de forhåndsbehandles, blant annet ved å fjerne skadelig, hatefullt og diskriminerende innhold. I tillegg finjusterer menneskelige team iterasjoner av AI-modeller ved å legge inn potensielt risikable eller skadelige spørsmål og analysere svarene.

Disse prosessene gjør det mulig for forskerne å "tilpasse" den kunstige intelligensen til etiske og sosiale verdier, slik at de får en ren, nøytral kunstig intelligens som ikke er utsatt for ustabil atferd. Det er i hvert fall idealet for proprietære, offentlige modeller som ChatGPT og Bard.

AI-tilpasning er en svært ufullkommen vitenskap som ikke kan oppnås uten flere lag med menneskelig innsats.

Selv om andre AI-verktøy kan forhåndsfiltrere data og fjerne mer åpenbare tilfeller av hatefullt eller giftig innhold, er det langt fra sikkert at de er nøyaktige, og noe vil uunngåelig slippe gjennom nettet. Oppgaven kompliseres ytterligere av den menneskelige oppfinnsomheten, som stadig finner på nye måter å omgå AI-filtrering av innhold på, for eksempel ved å erstatte ord med emojis, en teknikk som ofte brukes for å omgå filtre på sosiale medier. 

I dette tilfellet bekreftet OpenAI overfor TIME at Sama-ansatte i Kenya var med på å bygge et verktøy for å oppdage skadelig innhold, som til slutt ble bygget inn i ChatGPT. 

OpenAI svarer på begjæringen

I midten av juli svarte OpenAI på bekymringene om de psykologiske konsekvensene av arbeidet med innholdsmoderering. 

I en uttalelse til ITWeb Afrika"Vi erkjenner at dette er et utfordrende arbeid for våre forskere og annoteringsarbeidere i Kenya og rundt om i verden - deres innsats for å sikre sikkerheten til AI-systemer har vært svært verdifull", sier en talsperson for OpenAI.

Talspersonen fortsetter: "Vårt oppdrag er å bygge trygg og nyttig AGI (kunstig generell intelligens), og menneskelig dataannotasjon er en av de mange delene av arbeidet vårt for å samle inn tilbakemeldinger fra mennesker og veilede modellene mot tryggere atferd i den virkelige verden. Vi mener at dette arbeidet må gjøres på en human og frivillig måte, og det er derfor vi etablerer og deler våre egne etiske standarder og standarder for velvære for dataannotatørene våre."

Martha Dark, direktør for Foxglove, sier: "ChatGPT er verdensberømt som et symbol på AIs potensial. Men i likhet med Facebook før det, er suksessen bygget på en hær av skjulte og underbetalte mennesker som gjør det grusomme arbeidet med å sile gjennom giftig innhold for å gjøre tjenesten trygg. Moderatorer i Kenya er i ferd med å danne kontinentets første fagforening for innholdsmoderatorer for å slå tilbake. Denne parlamentariske begjæringen er den siste demonstrasjonen av kraften til organiserte teknologiarbeidere. Foxglove støtter denne bevegelsen - og håper kenyanske parlamentsmedlemmer vil gjennomføre presserende reformer av outsourcingmodellen som gjør det mulig for selskaper som Sama å bli utnyttet av utenlandske teknologigiganter."

Mercy Mutemi, managing partner i det kenyanske advokatfirmaet Nzili & Sumbi Advocates, legger til: "Kenyanerne har fått nok av å være big tech-bransjens melkeku, der enorme fortjenester hentes ut og sendes utenlands, mens de unge afrikanske arbeiderne som har skapt dem, blir arbeidsløse og ødelagte. Jeg oppfordrer lovgiverne til å lytte til disse modige, tidligere ChatGPT-datalabellerne og umiddelbart undersøke arbeidsforholdene i Kenyas innholdsmodereringskontorer."

AI Kenya
Den kenyanske advokaten Mercy Mutemi representerte kenyanske arbeidere i et søksmål mot Sama og Meta. Kilde: WSJ.

I den separate saken som involverer Meta, en Kenyansk domstol avgjorde at Meta var ansvarlig for arbeiderne, ikke Sama, og at dette var en skjellsettende avgjørelse som kan endre outsourcing av teknologi. 

Innholdsmodereringens mørke historie

Innholdsmoderering har en dyster historie som går helt tilbake til internettets spede begynnelse.

Det moderne internett er sterkt sensurert, og skadelig innhold av ulike slag er i stor grad bannlyst fra vanlige nettsteder. Men folk prøver likevel, og byrden med å beskytte nettsamfunnene faller ofte på menneskelige skuldre.

Mengden av potensielt støtende innhold er svimlende. Som rapportert av Forbes i 2020Facebooks AI for innholdsanalyse og moderering flagget daglig over 3 millioner innhold som muligens brøt med deres fellesskapsstandarder. 

Facebook ansatte da rundt 15 000 innholdsmoderatorer som siler gjennom tusenvis av innhold hver dag. Mark Zuckerberg innrømmet at omtrent 1 av 10 innholdsstykker slipper gjennom nettet og går live på Facebook eller Instagram. 

Til tross for fremskritt innen automatisert innholdsfiltrering, har en 2021 studie Mary's University, Texas, og University of Texas i Austin anslår at det finnes rundt 100 000 innholdsmoderatorer på verdensbasis. 

Forfatterne påpeker at menneskelig tolkning ofte er nødvendig på grunn av høye krav til nøyaktighet, oppgavens subjektive natur og komplekse, stadig skiftende retningslinjer for moderering.

Faglitteraturen dokumenterer at moderatorer utvikler ulike former for posttraumatisk stresslidelse (PTSD), stress, depresjon og angst, blant andre psykiatriske komplikasjoner. Betalte innholdsmoderatorer må håndtere forstyrrende innhold samtidig som de må overholde strenge kvoter for akseptabel arbeidsprestasjon, og de er ofte lavt lønnet. 

Noen innholdsmoderatorer utsettes for ekstremt opprørende innhold når de jobber med det som har blitt kjent som "terrorkøen" - modereringskøen som inneholder det mest opprørende innholdet, inkludert drap, selvmord og tortur.

I The Verge's 2019-eksponering av innholdsmoderering for Google og YouTube, en moderator som jobber med Alphabet i Austin, Texas, sa: "Hvis jeg sa at det ikke påvirket meg, ville jeg løyet." "Det du ser hver dag ... det former deg", og fortsatte: "I begynnelsen så du alle som sa: 'Hei, hvordan går det?'" "Alle var vennlige. De gikk rundt og sjekket innom. Nå er det ingen som vil snakke med de andre."

En annen sa: "Hver dag ser du noen halshugge noen, eller noen som skyter kjæresten sin. Etter det føler du at wow, denne verden er virkelig gal. Dette får deg til å føle deg syk. Du føler at det ikke er noe verdt å leve for. Hvorfor gjør vi dette mot hverandre?"

Mens AI-filter for innhold blir stadig bedre, noe som reduserer byrden på menneskelige innholdsmodereringsteam, men menneskelig tilsyn er fortsatt avgjørende for å fange opp innhold som vender bort blikket.

Når det gjelder å bygge opp AI-treningsdatasett, er det til syvende og sist uunngåelig at mennesker til en viss grad utsettes for skadelig innhold. 

Hvis kenyanske domstoler gir innholdsmoderatorene medhold, og andre underleverandører følger etter, vil AI-selskapene ikke ha noe annet valg enn å betale en rimelig kompensasjon for denne slitsomme oppgaven.

Tross alt avhenger ytelsen til modellene deres av det.

Bli med i fremtiden


ABONNER I DAG

Tydelig, kortfattet og omfattende. Få et grep om AI-utviklingen med DagligAI

Sam Jeans

Sam er en vitenskaps- og teknologiskribent som har jobbet i ulike oppstartsbedrifter innen kunstig intelligens. Når han ikke skriver, leser han medisinske tidsskrifter eller graver seg gjennom esker med vinylplater.

×

GRATIS PDF EKSKLUSIV
Hold deg i forkant med DailyAI

Meld deg på vårt ukentlige nyhetsbrev og få eksklusiv tilgang til DailyAIs nyeste e-bok: "Mastering AI Tools: Din 2024-guide til økt produktivitet".

*Ved å abonnere på vårt nyhetsbrev aksepterer du vår Retningslinjer for personvern og vår Vilkår og betingelser