La mayoría de la gente diría que Internet es un entorno a veces hostil, pero ¿qué pasaría si te expusieras a diario a lo peor que puede ofrecer?
Los moderadores de contenidos se encargan de cribar textos, imágenes y vídeos y marcar manualmente los contenidos nocivos, desde insultos racistas y expresiones de odio hasta debates o representaciones de asesinatos y suicidios.
Los efectos psicológicos nocivos del trabajo están bien documentados, tanto anecdóticamente en forma de cartas abiertas de personas del sector como en estudios académicos.
El floreciente sector de la IA generativa ha impulsado una nueva demanda de moderadores de contenidos, y, una vez más, empiezan a salir a la luz historias del interior de ese desafiante trabajo.
Los informáticos de Kenia se pronuncian sobre la moderación de contenidos mediante IA
En Kenia, varios antiguos moderadores de contenidos del ChatGPT de OpenAI han presentado una petición al gobierno keniano, exigiendo una investigación sobre lo que describen como "condiciones de explotación".
Las actividades comerciales de explotación en cuestión giran en torno a los servicios contratados por OpenAI a Sama, una empresa de servicios de anotación de datos con sede en California.
En según la peticiónDurante todo el contrato de formación de ChatGPT, no se nos proporcionó apoyo psicosocial. Debido a la exposición a este tipo de trabajo, formando a ChatGPT, hemos desarrollado enfermedades mentales graves, incluyendo TEPT, paranoia, depresión, ansiedad, insomnio, disfunción sexual, por mencionar algunas."
TIME, que también investigó La relación de Sama con Meta en Kenia sobre un proyecto similar, revisó documentos que sugieren que OpenAI firmó 3 contratos con Sama por valor de unos $200.000. Los contratos incluían el etiquetado de descripciones textuales de abusos sexuales, incitación al odio y violencia.
Alrededor de 36 trabajadores repartidos en 3 equipos trabajaron en el proyecto, uno centrado en cada tema. Todos los trabajadores entrevistado por TIME afirmaron que la tarea repercutió en su salud mental.
Mophat Okinyi, antiguo moderador, reveló las secuelas psicológicas que le ha causado el trabajo. "Ha dañado mucho mi salud mental". dijo Okinyi. Recordó haber visto hasta 700 pasajes de texto al día, muchos de ellos con violencia sexual gráfica, lo que le llevó a la paranoia y el aislamiento. Acabó perdiendo a su mujer, que dijo que era un "hombre cambiado".
TIME informó de que un trabajador tuvo que leer una descripción gráfica de zoofilia en presencia de un niño, describiéndola como "Tortura". Y añadió: "A lo largo de la semana leerás varias afirmaciones como esa. Para cuando llega el viernes, estás perturbado de pensar en esa imagen".
La petición de Kenia llama la atención sobre los horribles contenidos que tenían que revisar los contratistas, que a menudo incluían escenas de violencia, autolesiones, asesinatos, violaciones, necrofilia, abusos a menores, zoofilia e incesto. Según un portavoz de Sama, los trabajadores ganaban entre $1,46 y $3,74 la hora por el trabajo.
Los bajos salarios de los servicios de datos relacionados con la IA están bien documentados en las redes sociales, con un Redditor hablando de su experiencia de formación Bard"20$/h no es suficiente para el horrible trato que recibimos, así que voy a exprimir hasta el último céntimo de este trabajo *******".
$20/hora está muy lejos de los menos de $5/hora que se pagan en Kenia. S¿Deben las empresas dedicadas a la IA precipitarse a la carrera hacia el fondo cuando el trabajo en sí es crítico para la empresa y el contenido peligroso?
Dedalerauna ONG jurídica sin ánimo de lucro que apoya los casos de trabajadores keniatas contra Meta y OpenAI, califica esta situación de flagrante explotación laboral con bajos salarios.
Ahora, cuatro antiguos etiquetadores de datos piden al Parlamento keniano que ponga fin a esta explotación y a la subcontratación de empresas como Sama, que atraen a los jóvenes africanos con la perspectiva de empleos en tecnología, sólo para deshacerse de ellos cuando se atreven a buscar un trato mejor.
- Foxglove (@Foxglovelegal) 12 de julio de 2023
Cori Crider, directora de Dedalera, argumentó: "La subcontratación de estos trabajadores es una táctica de las empresas tecnológicas para distanciarse de las pésimas condiciones laborales que soportan los moderadores de contenidos".
Estos trabajadores moderaban contenidos de abuso sexual infantil, además de incesto, zoofilia, violación, tráfico sexual y esclavitud sexual.
No recibían ningún apoyo psiquiátrico real y trabajaban por una miseria. Leer @_KarenHaoinforme completo: https://t.co/q8ion4vuNx
- Foxglove (@Foxglovelegal) 25 de julio de 2023
¿Por qué son necesarios los moderadores de contenidos humanos?
El entrenamiento de modelos de IA requiere un considerable esfuerzo humano para construir y preparar conjuntos de datos.
Cuando OpenAI y otros desarrolladores de IA construyen sus conjuntos de datos, suelen recopilar datos del mundo real, generar datos sintéticos y extraer datos de Internet, incluidas imágenes y texto de sitios web, tablones de anuncios, foros, etcétera.
Una vez recopilados, los datos deben ser preprocesados, lo que incluye la eliminación de contenidos nocivos, odiosos y discriminatorios. Además, los equipos humanos afinan las iteraciones de los modelos de IA introduciendo mensajes potencialmente peligrosos o nocivos y analizando las respuestas.
Estos procesos permiten a los investigadores "alinear" la IA con valores éticos y sociales, obteniendo una IA limpia y neutral que no es susceptible de comportamientos volátiles. O al menos, ese es el ideal para modelos públicos patentados como ChatGPT y Bard.
La alineación de la IA es una ciencia muy imperfecta que no puede lograrse sin capas de aportación humana.
Aunque otras herramientas de IA pueden prefiltrar los datos, eliminando los casos más evidentes de contenido odioso o tóxico, su precisión dista mucho de estar garantizada, y es inevitable que algunos se cuelen en la red. La tarea se complica aún más por el ingenio humano que inventa constantemente formas de subvertir el filtrado de contenidos de la IA, por ejemplo, sustituyendo palabras por emojis, una técnica utilizada habitualmente para eludir los filtros en las redes sociales.
En este caso concreto, OpenAI confirmó a TIME que los empleados de Sama en Kenia estaban ayudando a crear una herramienta diseñada para detectar contenidos nocivos, que finalmente se incorporó a ChatGPT.
OpenAI responde a la petición
A mediados de julio, OpenAI respondió a las preocupaciones sobre el impacto psicológico del trabajo de moderación de contenidos.
En una declaración a ITWeb África, un portavoz de OpenAI declaró: "Reconocemos que se trata de un trabajo difícil para nuestros investigadores y trabajadores de anotación en Kenia y en todo el mundo; sus esfuerzos por garantizar la seguridad de los sistemas de IA han sido inmensamente valiosos."
El portavoz continuó: "Nuestra misión es construir AGI (inteligencia general artificial) segura y beneficiosa, y la anotación de datos humanos es una de las muchas corrientes de nuestro trabajo para recoger la opinión humana y guiar a los modelos hacia un comportamiento más seguro en el mundo real. Creemos que este trabajo debe hacerse de forma humana y voluntaria, por lo que establecemos y compartimos nuestras propias normas éticas y de bienestar para nuestros anotadores de datos."
Martha Dark, directora de Foxglove, afirma: "ChatGPT es mundialmente famoso como símbolo del potencial de la IA. Pero, al igual que Facebook antes que él, su éxito se basa en un ejército de personas ocultas y mal pagadas que realizan el espantoso trabajo de cribar los contenidos tóxicos para que el servicio sea seguro. Los moderadores de Kenia están formando el primer sindicato de moderadores de contenidos del continente. Esta petición parlamentaria es la última demostración del poder de los trabajadores tecnológicos organizados. Foxglove apoya este movimiento y espera que los parlamentarios kenianos introduzcan reformas urgentes en el modelo de subcontratación que permite a empresas como Sama la explotación por parte de gigantes tecnológicos extranjeros".
Mercy Mutemi, socia directora del bufete de abogados keniata Nzili & Sumbi Advocates, añadió: "Los keniatas ya están hartos de ser la gallina de los huevos de oro de las grandes tecnológicas, de las que se extraen enormes beneficios que luego se envían al extranjero, dejando sin trabajo y destrozados a los jóvenes trabajadores africanos que los fabricaron. Insto a los legisladores a que escuchen a estos valientes ex etiquetadores de datos de ChatGPT e investiguen inmediatamente las condiciones de trabajo dentro de las oficinas de moderación de contenidos de Kenia."
En el caso separado de Meta, un Un tribunal keniano dictaminó que Meta era responsable de los trabajadores, y no Sama, lo que constituye una decisión histórica que podría cambiar la naturaleza de la subcontratación tecnológica.
La oscura historia de la moderación de contenidos
La moderación de contenidos tiene una historia sombría que se remonta a los primeros días de Internet.
La Internet moderna está muy censurada, y los contenidos nocivos de diversa índole están en gran medida prohibidos en los principales sitios web. Pero la gente sigue intentándolo, y la carga de proteger a las comunidades en línea recae a menudo sobre los hombros humanos.
El volumen de contenidos potencialmente ofensivos es asombroso. Según informa Forbes en 2020La IA de análisis y moderación de contenidos de Facebook marcaba diariamente más de 3 millones de contenidos que posiblemente infringían las normas de la comunidad.
Facebook contrató entonces a unos 15.000 moderadores de contenidos que examinan miles de contenidos cada día. Mark Zuckerberg admitió que aproximadamente 1 de cada 10 contenidos escapa de la red y se publica en Facebook o Instagram.
A pesar de los avances en el filtrado automático de contenidos, un Estudio 2021 realizado por investigadores de Virginia Tech, la Universidad St. Mary de Texas y la Universidad de Texas en Austin estimó que hay unos 100.000 moderadores de contenidos trabajando en todo el mundo.
Los autores señalan que a menudo es necesaria la interpretación humana debido a los elevados requisitos de precisión, la naturaleza subjetiva de la tarea y las complejas y siempre cambiantes políticas de moderación.
La literatura académica documenta que los moderadores desarrollan formas de trastorno de estrés postraumático (TEPT), estrés, depresión y ansiedad, entre otras complicaciones psiquiátricas. Los moderadores de contenidos remunerados tienen que lidiar con contenidos perturbadores al tiempo que mantienen estrictas cuotas de rendimiento laboral aceptable y suelen cobrar salarios bajos.
Algunos moderadores de contenidos están sometidos a contenidos extremadamente angustiosos mientras trabajan en lo que se ha dado en llamar la "cola del terror": la cola de moderación que contiene los contenidos más perturbadores, como asesinatos, suicidios y torturas.
En The Verge 2019 destapa la moderación de contenidos de Google y YouTube, un moderador que trabaja con Alphabet en Austin (Texas), dijo: "Si dijera que no me afecta, es una completa mentira". "Lo que ves cada día... te moldea", continuando: "Al principio, veías a todo el mundo diciendo: "Hola, ¿qué tal?". "Todo el mundo era amable. Iban de un lado a otro comprobando cómo estabas. Ahora nadie quiere ni hablar con los demás".
Otro dijo: "Todos los días ves a alguien decapitando a alguien, o a alguien disparando a su novia. Después de eso, sientes que este mundo está realmente loco. Esto te hace sentir mal. Sientes que no hay nada por lo que merezca la pena vivir. ¿Por qué nos hacemos esto unos a otros?".
En Filtros de contenidos AI están mejorando, aligerando la carga de los equipos humanos de moderación de contenidos, la supervisión humana sigue siendo fundamental para captar los contenidos que desvían la mirada.
En última instancia, cuando se trata de crear conjuntos de datos de entrenamiento de IA, es inevitable cierto nivel de exposición humana a contenidos nocivos.
Si los tribunales keniatas fallan a favor de los moderadores de contenidos y otros contratistas externos siguen su ejemplo, las empresas de IA no tendrán más remedio que pagar una compensación justa por esta agotadora tarea.
Al fin y al cabo, el rendimiento de sus modelos depende de ello.