OpenAI ha annunciato il potenziale del GPT-4 per modernizzare il compito di moderazione dei contenuti, riducendo la necessità di una supervisione umana.
Internet viene costantemente moderato da contenuti dannosi, odiosi o comunque inaccettabili e, sebbene gli algoritmi lavorino già dietro le quinte per automatizzare il processo, l'intuizione umana rimane preziosa.
I moderatori dei contenuti sono incaricati di questa responsabilità e devono selezionare i contenuti traumatici che ritraggono suicidi, torture e omicidi.
OpenAI immagina un futuro in cui l'intelligenza artificiale ottimizzi la moderazione dei contenuti online in base alle linee guida specifiche della piattaforma, riducendo in modo significativo la pressione sui moderatori umani.
In un post sul blog"Crediamo che questo offra una visione più positiva del futuro delle piattaforme digitali, in cui l'intelligenza artificiale può aiutare a moderare il traffico online in base alle politiche specifiche della piattaforma e ad alleggerire il carico mentale dei moderatori umani, che probabilmente sono centinaia di migliaia in tutto il mondo".
Si tratta di un argomento importante, dato che OpenAI è stato recentemente coinvolto in uno scandalo che coinvolge i moderatori di contenuti che lavorano per la società di servizi dati Sama a Nairobi, in Kenya.
I lavoratori hanno dovuto selezionare il contenuto del testo grafico per migliorare l'"allineamento" di ChatGPT, che descrive la modifica dei risultati dell'IA in base a confini etici, morali e politici "desiderabili", una pratica altamente soggettiva.
Il team di moderazione dei contenuti ha denunciato condizioni di lavoro traumatiche e ingiuste e ha presentato una petizione al governo keniota, culminata in una causa legale.
OpenAI afferma che il GPT-4 potrebbe aiutare a creare politiche di contenuto personalizzate e ad applicarle ai contenuti su scala.
Confrontando il GPT-4 con la moderazione manuale, OpenAI ha evidenziato la capacità dell'IA di offrire un'etichettatura coerente e un feedback rapido, spiegando: "Le persone possono interpretare le policy in modo diverso o alcuni moderatori possono impiegare più tempo a digerire le nuove modifiche alle policy, portando a etichette incoerenti". In confronto, gli LLM sono sensibili alle differenze granulari nella formulazione e possono adattarsi istantaneamente agli aggiornamenti delle policy per offrire agli utenti un'esperienza di contenuto coerente".
Tuttavia, nonostante il potenziale del GPT-4 di alleggerire il carico dei moderatori di contenuti, OpenAI ha ammesso che probabilmente non è possibile automatizzare completamente il processo, affermando: "Come per qualsiasi applicazione di IA, i risultati e l'output dovranno essere attentamente monitorati, convalidati e perfezionati mantenendo gli esseri umani nel ciclo".
Come OpenAI intende sfruttare il GPT-4 per la moderazione dei contenuti
Le piattaforme digitali devono affrontare una sfida continua: moderare una grande quantità di contenuti in modo rapido e accurato.
Storicamente, il lavoro pesante è stato sopportato da moderatori umani con conseguenze psicologiche potenzialmente disastrose, spesso accompagnate da una bassa retribuzione.
OpenAI intende sfruttare il GPT-4 per implementare automaticamente le politiche di limitazione dei contenuti dannosi. L'azienda ha evidenziato i seguenti vantaggi:
- Velocità: Grazie al GPT-4, le modifiche ai criteri di contenuto che prima richiedevano mesi ora vengono effettuate in poche ore.
- Coerenza: L'interpretazione umana delle politiche sui contenuti può variare, causando incoerenze. GPT-4 offre un approccio standardizzato adattandosi alle modifiche delle politiche.
- Benessere mentale: L'automazione di gran parte del processo di moderazione dei contenuti con GPT-4 può ridurre la tensione emotiva dei moderatori umani, che spesso si imbattono in contenuti dannosi o offensivi.
Tuttavia, OpenAI ha ammesso che la moderazione dei contenuti si muove rapidamente, poiché gli esseri umani inventano sempre nuovi modi per aggirare i filtri, ad esempio utilizzando nuovi termini gergali per eludere il rilevamento.
Inoltre, la parzialità rimane un problema, in quanto le decisioni del GPT-4 potrebbero riflettere i pregiudizi dei suoi dati di addestramento. Questo potrebbe portare a punti ciechi o a un trattamento imprevedibile di alcuni contenuti.
Vale la pena notare che i moderatori dei contenuti kenioti stavano svolgendo questo compito per contribuire ad allineare ChatGPT.
Quindi, anche l'utilizzo dell'intelligenza artificiale per moderare i contenuti richiede in ultima analisi un certo livello di esposizione umana.