AI-industrien har en problematisk historie med udnyttelse af arbejdskraft, og arbejdere i Venezuela, Kenya og andre dele af verden med store markeder for datamærkning og AI-træning har sagt fra.
Store AI-modeller som ChatGPT og GPT-familien af modeller kræver store mængder data, herunder tekstdata, der er modereret og mærket af mennesker.
Målet er at mærke tekst for at instruere modeller om forskellige typer indhold, især skadeligt eller ulovligt indhold. Det hjælper med at konstruere filtre og værn.
I tidligere tilfælde i Kenya blev medarbejdere hos dataservicefirmaet Sama, der arbejdede på et projekt for OpenAI, udsat for indhold, der indeholdt temaer om foruroligende seksuelt misbrug.
Flere arbejdere hævdede, at de havde fået psykiske problemer som følge heraf, og til sidst som kulminerer i en underskriftsindsamling og en retssag.
Noget lignende er set i indholdsmoderationsbranchen, hvor medarbejdere er ansvarlige for at analysere potentielt ulovligt indhold på tværs af sociale medieplatforme.
Ifølge en ny rapport fra WIREDDette arbejde omfatter især unge mennesker, ofte med en fattig baggrund, som tiltrækkes af onlineplatforme, der lover arbejdsfleksibilitet og højere lønninger end de lokale standarder. Dette sker på bekostning af eksponering for skadeligt indhold.
Hassan, et pseudonym for en 18-årig fra Pakistan, er en af dem, der blev en lavtlønnet medarbejder i den globale AI-forsyningskæde, hvor han mærkede data for at træne algoritmer for nogle af verdens største AI-virksomheder.
Gig-arbejdere på crowdsourcing-platforme som Toloka og Amazon Mechanical Turk påtager sig ofte disse opgaver. Hassan startede sin onlinekarriere på Toloka. Han brugte oplysninger fra en slægtning til at omgå aldersbegrænsninger, hvilket er en almindelig praksis blandt mindreårige, der søger den slags arbejde.
WIREDs undersøgelse afslørede flere tilfælde af mindreårige arbejdere i Pakistan og Kenya, der kom med på platforme som Toloka og Appen under falske forudsætninger.
Den mørke side af datamærkning
Selv om arbejdet med datamærkning kan virke uskyldigt, indebærer det nogle gange, at man gennemgår foruroligende indhold.
Hassan delte skærmoptagelser af opgaver, hvor han blev udsat for eksplicit sprog og seksuelt anmassende billeder. Han husker, at han havde at gøre med dybt bekymrende indhold, herunder seksualiserede billeder af mindreårige og beskrivelser af voldelige handlinger, som fortsat påvirker hans mentale helbred.
Tiltrækningen ved at tjene mere end den nationale mindsteløn er en stærk drivkraft for disse unge.
For mange starter gig-arbejde som et middel til at nå et mål, f.eks. at finansiere en rejse eller forsørge deres familie. Men nogle gange udholder arbejderne lange arbejdstider for en ringe løn og risikerer at få deres konto suspenderet eller udelukket for mindre afvigelser i deres arbejde.
For Hassan er dette arbejde fortsat hans eneste indtægtskilde på trods af, at han er i gang med en bacheloruddannelse. Han bemærker, at lønnen er faldet markant i takt med, at flere arbejdere har sluttet sig til disse platforme, hvilket får ham til at kalde situationen for "digitalt slaveri".
Situationen her afspejler præcist situationen i andre rapporter fra Venezuela og Kenya. I Venezuela var hele familier, inklusive børn på 13 år, involveret i datamærkningsopgaver.
Kombineret med AI's centraliserede brug i overvejende mere velhavende samfund har dette ført til kritik af AI. Teknologi som "kolonial" i sin uhyggeligt lignende mekanik til kolonitidens arbejdssystematik - en form for "digital trældom".
Det understreger behovet for strengere aldersbekræftelsesprocesser på disse platforme og rejser spørgsmål om den etiske sourcing af arbejdskraft i tech-industrien.
Der har været lignende hændelser i andre brancher, f.eks. at unge under 18 år har omgået aldersbekræftelsen for at tage arbejde op for leveringsplatforme som Deliveroo.
I takt med at AI udvikler sig, bliver det stadig vigtigere at sikre, at den grundlæggende arbejdspraksis overholder etiske standarder.