AI-industrin har en problematisk historia när det gäller exploatering av arbetskraft, och arbetstagare i Venezuela, Kenya och andra delar av världen med stora marknader för datalagring och AI-träning har vittnat om detta.
Stora AI-modeller som ChatGPT och GPT-familjen av modeller kräver stora mängder data, inklusive textdata som modereras och etiketteras av människor.
Målet är att märka text för att instruera modeller om olika typer av innehåll, särskilt skadligt eller olagligt innehåll. Detta hjälper till att konstruera filter och skyddsräcken.
I tidigare fall i Kenya har anställda vid datatjänstföretaget Sama, som arbetade med ett projekt för OpenAI, exponerats för innehåll som innehöll teman med störande sexuella övergrepp.
Flera arbetare hävdade att de hade drabbats av psykiska problem till följd av detta, och till slut som utmynnar i en framställning och en rättslig åtgärd.
Liknande iakttagelser har gjorts inom branschen för innehållsmoderering, där anställda ansvarar för att analysera potentiellt olagligt innehåll på sociala medieplattformar.
Enligt en ny rapport från KABLARDetta arbete omfattar särskilt unga personer, ofta från fattiga förhållanden, som lockas av onlineplattformar som utlovar flexibelt arbete och högre löner än lokala standarder. Detta sker på bekostnad av exponering för skadligt innehåll.
Hassan, en pseudonym för en 18-åring från Pakistan, är en sådan person som blev en lågavlönad arbetare i den globala AI-leverantörskedjan, där han märkte data för att träna algoritmer åt några av världens största AI-företag.
Gigarbetare på crowdsourcingplattformar som Toloka och Amazon Mechanical Turk utför ofta dessa uppgifter. Hassan började sin onlinekarriär på Toloka. Han använde uppgifter från en släkting för att kringgå åldersbegränsningar, vilket är vanligt bland minderåriga som söker sådant arbete.
WIREDs undersökning avslöjade flera fall av minderåriga arbetare i Pakistan och Kenya som anslöt sig till plattformar som Toloka och Appen under falska förespeglingar.
Den mörka sidan av datamärkning
Även om arbetet med att märka data kan verka oskyldigt, innebär det ibland att man måste gå igenom störande innehåll.
Hassan delade med sig av skärminspelningar av uppgifter där han utsattes för explicit språk och sexuellt anspelande bilder. Han minns att han hanterade djupt oroande innehåll, inklusive sexualiserade bilder av minderåriga och beskrivningar av våldsamma handlingar, som fortsätter att påverka hans mentala hälsa.
Lockelsen i att tjäna mer än den nationella minimilönen är en stark drivkraft för dessa ungdomar.
För många börjar gig-arbetet som ett medel för att nå ett mål, t.ex. att finansiera en resa eller försörja sin familj. Men arbetarna får ibland utstå långa arbetsdagar för en låg lön och riskerar att få sina konton avstängda eller förbjudna för mindre avvikelser i sitt arbete.
För Hassan är detta arbete fortfarande hans enda inkomstkälla trots att han har påbörjat en kandidatexamen. Han konstaterar att lönen har sjunkit avsevärt i takt med att fler arbetstagare har anslutit sig till dessa plattformar, vilket har fått honom att kalla situationen för "digitalt slaveri".
Situationen här speglar exakt den som beskrivs i andra rapporter från Venezuela och Kenya. I Venezuela var hela familjer, inklusive barn i 13-årsåldern, involverade i datalagringsuppgifter.
I kombination med AI:s centraliserade användning i övervägande mer välmående samhällen har detta lett till kritik av teknik som "kolonial" i sin kusligt liknande mekanik till kolonialtidens arbetssystematik - en form av "digitalt slaveri".
Detta understryker behovet av strängare processer för åldersverifiering på dessa plattformar och väcker frågor om den etiska anskaffningen av arbetskraft i teknikindustrin.
Det har förekommit liknande händelser i andra branscher, till exempel att personer under 18 år kringgår åldersverifiering för att ta upp arbete för leveransplattformar som Deliveroo.
I takt med att AI utvecklas blir det allt viktigare att säkerställa att de grundläggande arbetsmetoderna följer etiska normer.