OpenAI anuncia su intención de desplegar GPT-4 para la moderación de contenidos

17 de agosto de 2023

GPT-4

OpenAI ha anunciado el potencial de GPT-4 para modernizar la tarea de moderación de contenidos, reduciendo la necesidad de supervisión humana. 

Internet se modera constantemente en busca de contenidos nocivos, odiosos o inaceptables por cualquier otro motivo, y aunque los algoritmos ya trabajan entre bastidores para automatizar el proceso, la visión humana sigue teniendo un valor incalculable. 

Los moderadores de contenidos se encargan de esta responsabilidad y tienen que clasificar contenidos a veces traumáticos que muestran suicidios, torturas y asesinatos.

OpenAI imagina un futuro en el que la IA agilice la moderación de contenidos en línea según las directrices específicas de cada plataforma, reduciendo significativamente la presión sobre los moderadores humanos. 

En un entrada del blog, afirman: "Creemos que esto ofrece una visión más positiva del futuro de las plataformas digitales, en las que la IA puede ayudar a moderar el tráfico en línea de acuerdo con la política específica de la plataforma y aliviar la carga mental de los moderadores humanos, de los que probablemente haya cientos de miles en todo el mundo."

Se trata de un tema destacado, ya que OpenAI fue recientemente envuelto en un escándalo en la que participan moderadores de contenidos que trabajan para la empresa de servicios de datos Sama en Nairobi (Kenia).

Los trabajadores tuvieron que clasificar el contenido del texto gráfico para mejorar la "alineación" de ChatGPT, que describe la modificación de los resultados de la IA según los límites éticos, morales y políticos "deseables", una práctica muy subjetiva. 

El equipo de moderación de contenidos denunció unas condiciones de trabajo traumáticas e injustas y presentó una petición al gobierno keniano, que culminó en una demanda judicial.

OpenAI afirma que GPT-4 podría ayudar a elaborar políticas de contenidos personalizadas y aplicarlas a los contenidos a escala. 

Al contrastar la GPT-4 con la moderación manual, OpenAI destacó la capacidad de la IA para ofrecer un etiquetado coherente y una respuesta rápida, explicando: "Las personas pueden interpretar las políticas de forma diferente o algunos moderadores pueden tardar más en asimilar los nuevos cambios de política, lo que da lugar a etiquetas incoherentes. En comparación, los LLM son sensibles a las diferencias granulares en la redacción y pueden adaptarse instantáneamente a las actualizaciones de las políticas para ofrecer una experiencia de contenido coherente a los usuarios."

Sin embargo, a pesar del potencial de GPT-4 para aliviar la carga impuesta a los moderadores de contenidos, OpenAI admitió que probablemente no sea posible automatizar completamente el proceso, afirmando: "Al igual que con cualquier aplicación de IA, los resultados y la salida tendrán que ser cuidadosamente supervisados, validados y refinados por el mantenimiento de los seres humanos en el bucle."

Cómo OpenAI pretende aprovechar GPT-4 para la moderación de contenidos

Las plataformas digitales se enfrentan a un reto constante: moderar grandes cantidades de contenidos con rapidez y precisión. 

Históricamente, los moderadores humanos han soportado el trabajo pesado, con consecuencias psicológicas potencialmente desastrosas, a menudo acompañadas de una baja remuneración. 

OpenAI pretende aprovechar GPT-4 para aplicar automáticamente políticas que limiten los contenidos nocivos. La empresa destacó las siguientes ventajas: 

  • Velocidad: Con GPT-4, los cambios de política de contenidos que antes llevaban meses ahora se hacen en horas.
  • Coherencia: La interpretación humana de las políticas de contenidos puede variar, dando lugar a incoherencias. GPT-4 ofrece un enfoque estandarizado adaptándose a los ajustes de las políticas.
  • Bienestar mental: La automatización de gran parte del proceso de moderación de contenidos con GPT-4 puede reducir la tensión emocional de los moderadores humanos, que a menudo se encuentran con contenidos dañinos u ofensivos.

Sin embargo, OpenAI admitió que la moderación de contenidos avanza con rapidez, ya que los humanos inventan constantemente nuevas formas de eludir los filtros, por ejemplo, utilizando nuevos términos de argot para evadir la detección. 

Además, el sesgo sigue siendo un problema, ya que las decisiones de GPT-4 podrían reflejar los sesgos de sus datos de entrenamiento. Esto podría dar lugar a puntos ciegos o a un tratamiento impredecible de algunos contenidos.

Cabe señalar que los moderadores de contenidos kenianos realizaban esa tarea para ayudar a alinear ChatGPT.

Por tanto, incluso el uso de la IA para moderar contenidos requiere en última instancia cierto nivel de exposición humana.

Únete al futuro


SUSCRÍBETE HOY

Claro, conciso y completo. Conozca los avances de la IA con DailyAI

Sam Jeans

Sam es un escritor de ciencia y tecnología que ha trabajado en varias startups de IA. Cuando no está escribiendo, se le puede encontrar leyendo revistas médicas o rebuscando en cajas de discos de vinilo.

×

PDF GRATUITO EXCLUSIVO
Adelántese con DailyAI

Suscríbase a nuestro boletín semanal y reciba acceso exclusivo al último eBook de DailyAI: 'Mastering AI Tools: Su guía 2024 para mejorar la productividad'.

*Al suscribirse a nuestro boletín de noticias, acepta nuestra política de privacidad. Política de privacidad y nuestro Condiciones generales