La maggior parte delle persone testimonierebbe che Internet è un ambiente a volte ostile, ma cosa succederebbe se foste esposti al peggio che ha da offrire ogni giorno?
I moderatori dei contenuti hanno il compito di passare al setaccio testi, immagini e video e di segnalare manualmente i contenuti dannosi, dagli insulti razziali e i discorsi di odio alle discussioni o rappresentazioni di omicidi e suicidi.
Gli impatti psicologici dannosi di questo lavoro sono ben documentati, sia aneddoticamente, sotto forma di lettere aperte di chi lavora nel settore, sia in studi accademici.
Il fiorente settore dell'intelligenza artificiale generativa ha alimentato una nuova domanda di moderatori di contenuti, e ancora una volta cominciano a emergere storie dall'interno di quel lavoro impegnativo.
I lavoratori dei dati in Kenya si esprimono sulla moderazione dei contenuti dell'IA
In Kenya, alcuni ex moderatori di contenuti per ChatGPT di OpenAI hanno presentato una petizione al governo keniota, chiedendo un'indagine su quelle che descrivono come "condizioni di sfruttamento".
Le attività commerciali di sfruttamento in questione ruotano attorno ai servizi appaltati da OpenAI a Sama, una società di servizi di annotazione dei dati con sede in California.
Come come da petizionePer tutta la durata del contratto di formazione di ChatGPT, non ci è stato offerto alcun supporto psicosociale. A causa dell'esposizione a questo tipo di lavoro, la formazione di ChatGPT, abbiamo sviluppato gravi malattie mentali, tra cui PTSD, paranoia, depressione, ansia, insonnia, disfunzioni sessuali, per citarne alcune".
TIME, che ha anche indagato Il rapporto di Sama con Meta in Kenya su un progetto simile, ha esaminato i documenti che suggeriscono che OpenAI ha firmato 3 contratti con Sama per un valore di circa $200.000. I contratti prevedevano l'etichettatura di descrizioni testuali di abusi sessuali, incitamento all'odio e violenza.
Circa 36 lavoratori, suddivisi in 3 squadre, hanno lavorato al progetto, una per ogni argomento. Tutti i lavoratori intervistato da TIME hanno dichiarato che il compito ha avuto un impatto sulla loro salute mentale.
Mophat Okinyi, un ex moderatore, ha rivelato il peso psicologico che il lavoro ha avuto su di lui. "Ha davvero danneggiato la mia salute mentale". ha detto Okinyi. Ha ricordato di aver consultato fino a 700 testi al giorno, molti dei quali contenenti violenza sessuale, che lo hanno portato alla paranoia e all'isolamento. Alla fine ha perso la moglie, che ha detto che era un "uomo cambiato".
TIME ha riferito che un operatore ha dovuto leggere una descrizione grafica della bestialità in presenza di un bambino, descrivendola come "Tortura". Ha poi aggiunto: "Per tutta la settimana leggerete una serie di affermazioni di questo tipo. Quando si arriva al venerdì, si è già disturbati dal pensare a quell'immagine".
La petizione del Kenya richiama l'attenzione sui contenuti raccapriccianti che gli appaltatori dovevano visionare, che spesso riguardavano scene di violenza, autolesionismo, omicidio, stupro, necrofilia, abuso di minori, bestialità e incesto. Secondo un portavoce di Sama, i lavoratori guadagnavano tra $1,46 e $3,74 all'ora per il lavoro.
I bassi salari per i servizi di dati legati all'intelligenza artificiale sono ben documentati sui social media, con un utente di Redditor che ha parlato del suo esperienza di formazione del Bardo, "20$/ora non sono sufficienti per l'orribile trattamento che riceviamo, quindi spremerò ogni centesimo da questo lavoro *******".
$20/ora è ben lontano dai meno di $5/ora pagati in Kenya. Se le aziende che si occupano di IA dovrebbero essere così rapide nel correre verso il basso quando il lavoro stesso è critico per l'azienda e il contenuto è pericoloso?
FoxgloveUna ONG legale senza scopo di lucro che sostiene le cause dei lavoratori kenioti contro Meta e OpenAI, descrive questa situazione come un palese sfruttamento del lavoro a basso salario.
Ora quattro ex-lavoratori di dati chiedono al parlamento keniota di porre fine a questo sfruttamento - e di porre fine al losco outsourcing da parte di aziende come Sama, che attirano giovani africani con la prospettiva di lavori tecnologici, per poi gettarli via quando osano cercare un accordo migliore.
- Foxglove (@Foxglovelegal) 12 luglio 2023
Cori Crider, direttore di FoxgloveL'esternalizzazione di questi lavoratori è una tattica delle aziende tecnologiche per prendere le distanze dalle terribili condizioni di lavoro dei moderatori di contenuti".
Questi operatori hanno moderato i contenuti relativi agli abusi sessuali sui minori, oltre a incesto, bestialità, stupro, traffico sessuale e schiavitù sessuale.
Non ricevevano un vero e proprio supporto psichiatrico e lavoravano per una cifra irrisoria. Leggere @_KarenHaoil rapporto completo dell'Istituto: https://t.co/q8ion4vuNx
- Foxglove (@Foxglovelegal) 25 luglio 2023
Perché i moderatori di contenuti umani sono necessari?
L'addestramento dei modelli di intelligenza artificiale richiede un notevole impegno umano per la creazione e la preparazione dei set di dati.
Quando OpenAI e altri sviluppatori di IA costruiscono i loro set di dati, in genere raccolgono dati dal mondo reale, generano dati sintetici e raccolgono dati da Internet, comprese immagini e testi da siti web, bacheche di messaggistica, forum e così via.
Una volta raccolti, i dati devono essere pre-elaborati, eliminando anche i contenuti dannosi, odiosi e discriminatori. Inoltre, i team umani perfezionano le iterazioni dei modelli di IA inserendo messaggi potenzialmente rischiosi o dannosi e analizzando le risposte.
Questi processi consentono ai ricercatori di "allineare" l'IA ai valori etici e sociali, ottenendo un'IA pulita, neutrale e non suscettibile di comportamenti volatili. O almeno, questo è l'ideale per i modelli pubblici proprietari come ChatGPT e Bard.
L'allineamento dell'intelligenza artificiale è una scienza altamente imperfetta che non può essere raggiunta senza strati di contributi umani.
Anche se altri strumenti di intelligenza artificiale possono pre-filtrare i dati, rimuovendo i casi più evidenti di contenuti odiosi o tossici, la loro accuratezza è lungi dall'essere garantita e alcuni sfuggono inevitabilmente alla rete. Il compito è ulteriormente complicato dall'ingegno umano che inventa continuamente modi per eludere il filtraggio dei contenuti da parte dell'IA, ad esempio sostituendo le parole con emoji, una tecnica regolarmente utilizzata per aggirare i filtri sui social media.
In questo particolare scenario, OpenAI ha confermato al TIME che i dipendenti di Sama in Kenya stavano aiutando a costruire uno strumento progettato per rilevare i contenuti dannosi, che alla fine è stato integrato in ChatGPT.
OpenAI risponde alla petizione
A metà luglio, OpenAI ha risposto alle preoccupazioni sull'impatto psicologico del lavoro di moderazione dei contenuti.
In una dichiarazione a ITWeb AfricaUn portavoce di OpenAI ha dichiarato: "Riconosciamo che si tratta di un lavoro impegnativo per i nostri ricercatori e gli addetti all'annotazione in Kenya e in tutto il mondo - i loro sforzi per garantire la sicurezza dei sistemi di IA sono stati immensamente preziosi".
La nostra missione è costruire un'intelligenza artificiale generale (AGI) sicura e vantaggiosa, e l'annotazione umana dei dati è uno dei tanti filoni del nostro lavoro per raccogliere il feedback umano e guidare i modelli verso un comportamento più sicuro nel mondo reale. Crediamo che questo lavoro debba essere svolto in modo umano e volontario, ed è per questo che stabiliamo e condividiamo i nostri standard etici e di benessere per i nostri annotatori di dati".
Martha Dark, direttrice di Foxglove, ha dichiarato: "ChatGPT è famoso in tutto il mondo come simbolo del potenziale dell'intelligenza artificiale. Ma come Facebook prima di lui, il suo successo si basa su un esercito di persone nascoste e sottopagate che svolgono il lavoro massacrante di setacciare i contenuti tossici per rendere il servizio sicuro. I moderatori del Kenya stanno formando il primo sindacato di moderatori di contenuti del continente per reagire. Questa petizione parlamentare è l'ultima dimostrazione del potere dei lavoratori tecnologici organizzati. Foxglove sostiene questo movimento - e spera che i parlamentari kenioti facciano riforme urgenti al modello di esternalizzazione che permette ad aziende come Sama di consentire lo sfruttamento da parte di giganti tecnologici stranieri".
Mercy Mutemi, managing partner dello studio legale keniota Nzili & Sumbi Advocates, ha aggiunto: "I kenioti ne hanno abbastanza di essere la vacca da mungere delle big tech, dove gli enormi profitti vengono estratti e poi spediti all'estero, lasciando i giovani lavoratori africani, che li hanno prodotti, senza lavoro e senza speranza". Esorto i legislatori ad ascoltare questi coraggiosi ex etichettatori di dati di ChatGPT e a indagare immediatamente sulle condizioni di lavoro all'interno degli uffici di moderazione dei contenuti del Kenya".
Nel caso separato che coinvolge Meta, un Il tribunale keniota ha stabilito che Meta era responsabile dei lavoratori, non Sama, una decisione che potrebbe cambiare la natura dell'outsourcing tecnologico.
La storia oscura della moderazione dei contenuti
La moderazione dei contenuti ha una triste storia che risale agli albori di Internet.
L'Internet moderno è altamente censurato e i contenuti dannosi di vario tipo sono in gran parte banditi dai siti web tradizionali. Ma le persone ci provano ancora e l'onere di proteggere le comunità online spesso ricade sulle spalle degli uomini.
La mole di contenuti potenzialmente offensivi è impressionante. Come riportato da Forbes nel 2020L'intelligenza artificiale di Facebook per l'analisi e la moderazione dei contenuti ha segnalato ogni giorno oltre 3 milioni di contenuti che potevano violare gli standard della comunità.
Facebook ha poi assunto circa 15.000 moderatori di contenuti che passano al setaccio migliaia di contenuti ogni giorno. Mark Zuckerberg ha ammesso che circa 1 contenuto su 10 sfugge alla rete e va in onda su Facebook o Instagram.
Nonostante i progressi nel filtraggio automatico dei contenuti, una Studio del 2021 da ricercatori del Virginia Tech, della St. Mary's University, Texas, e dell'Università del Texas ad Austin, ha stimato che ci sono circa 100.000 moderatori di contenuti che lavorano in tutto il mondo.
Gli autori fanno notare che l'interpretazione umana è spesso necessaria a causa degli elevati requisiti di accuratezza, della natura soggettiva del compito e delle politiche di moderazione complesse e in continua evoluzione.
La letteratura accademica documenta che i moderatori sviluppano forme di disturbo post-traumatico da stress (PTSD), stress, depressione e ansia, oltre ad altre complicazioni psichiatriche. I moderatori retribuiti sono alle prese con contenuti inquietanti, mantenendo rigide quote di prestazioni lavorative accettabili e sono spesso pagati con salari bassi.
Alcuni moderatori di contenuti sono soggetti a contenuti estremamente angoscianti mentre lavorano a quella che è diventata nota come "coda del terrore", ovvero la coda di moderazione contenente i contenuti più inquietanti, tra cui omicidi, suicidi e torture.
In The Verge Esposizione 2019 della moderazione dei contenuti per Google e YouTubeSe dicessi che non mi ha influenzato, sarebbe una vera e propria bugia", ha dichiarato un moderatore che lavora per Alphabet ad Austin, in Texas. Quello che vedi ogni giorno... ti modella", continuando: "All'inizio, vedevi tutti dire: "Ciao, come stai?"". "Tutti erano amichevoli. Andavano in giro a controllare. Ora nessuno vuole nemmeno parlare con gli altri".
Un altro ha detto: "Ogni giorno guardi qualcuno che decapita qualcuno, o qualcuno che spara alla sua ragazza. Dopo di ciò, ti senti come se questo mondo fosse davvero pazzo. Questo ti fa sentire male. Senti che non c'è nulla per cui valga la pena vivere. Perché ci stiamo facendo questo?".
Mentre Filtri per contenuti AI stanno migliorando, riducendo l'onere per i team di moderazione dei contenuti umani, la supervisione umana rimane fondamentale per catturare i contenuti che distolgono lo sguardo.
In definitiva, quando si tratta di costruire set di dati per l'addestramento dell'IA, un certo livello di esposizione umana a contenuti dannosi è in gran parte inevitabile.
Se i tribunali kenioti si pronunceranno a favore dei moderatori di contenuti e altri appaltatori esterni seguiranno il loro esempio, le aziende di IA non avranno altra scelta se non quella di pagare un giusto compenso per questo compito estenuante.
Dopotutto, le prestazioni dei loro modelli dipendono da questo.