A OpenAI anunciou o potencial da GPT-4 para modernizar a tarefa de moderação de conteúdos, reduzindo a necessidade de supervisão humana.
A Internet está constantemente a ser moderada no que diz respeito a conteúdos nocivos, odiosos ou inaceitáveis e, embora os algoritmos já trabalhem nos bastidores para automatizar o processo, a perceção humana continua a ser inestimável.
Os moderadores de conteúdos têm esta responsabilidade e têm de fazer uma triagem de conteúdos traumáticos que retratam o suicídio, a tortura e o assassínio.
A OpenAI prevê um futuro em que a IA simplifica a moderação de conteúdos em linha de acordo com as directrizes específicas da plataforma, reduzindo significativamente a pressão sobre os moderadores humanos.
Num publicação no blogueA IA pode ajudar a moderar o tráfego em linha de acordo com a política específica da plataforma e aliviar a carga mental dos moderadores humanos, que provavelmente são centenas de milhares em todo o mundo".
Este é um tema importante, uma vez que a OpenAI foi recentemente envolvido num escândalo envolvendo moderadores de conteúdos que trabalham para a empresa de serviços de dados Sama em Nairobi, no Quénia.
Os trabalhadores tiveram de fazer uma triagem do conteúdo do texto gráfico para melhorar o "alinhamento" do ChatGPT - que descreve a modificação dos resultados da IA de acordo com os limites éticos, morais e políticos "desejáveis" - uma prática altamente subjectiva.
A equipa de moderação de conteúdos denunciou condições de trabalho traumáticas e injustas e apresentou uma petição ao governo queniano, que culminou numa ação judicial.
A OpenAI diz que o GPT-4 pode ajudar a criar políticas de conteúdo personalizado e aplicá-las ao conteúdo em escala.
Comparando o GPT-4 com a moderação manual, a OpenAI destacou a proficiência da IA em oferecer rotulagem consistente e feedback rápido, explicando: "As pessoas podem interpretar as políticas de maneira diferente ou alguns moderadores podem levar mais tempo para digerir novas mudanças nas políticas, levando a rótulos inconsistentes. Em comparação, os LLMs são sensíveis a diferenças granulares na redação e podem se adaptar instantaneamente às atualizações de políticas para oferecer uma experiência de conteúdo consistente para os usuários.
No entanto, apesar do potencial do GPT-4 para aliviar a carga imposta aos moderadores de conteúdos, a OpenAI admitiu que a automatização total do processo não é provavelmente possível, afirmando: "Tal como acontece com qualquer aplicação de IA, os resultados e a produção terão de ser cuidadosamente monitorizados, validados e refinados mantendo os humanos no circuito".
Como é que a OpenAI tenciona tirar partido da GPT-4 para a moderação de conteúdos
As plataformas digitais enfrentam um desafio permanente: moderar grandes quantidades de conteúdos de forma rápida e exacta.
Historicamente, o trabalho pesado era suportado por moderadores humanos com consequências psicológicas potencialmente desastrosas, muitas vezes associadas a baixos salários.
A OpenAI procura tirar partido da GPT-4 para implementar automaticamente políticas destinadas a limitar os conteúdos nocivos. A empresa destacou os seguintes benefícios:
- Velocidade: Utilizando o GPT-4, as alterações à política de conteúdos que costumavam demorar meses são agora efectuadas em horas.
- Consistência: A interpretação humana das políticas de conteúdo pode variar, levando a inconsistências. O GPT-4 oferece uma abordagem normalizada, adaptando-se aos ajustamentos das políticas.
- Bem-estar mental: A automatização de grande parte do processo de moderação de conteúdos com o GPT-4 pode reduzir a tensão emocional dos moderadores humanos, que frequentemente se deparam com conteúdos nocivos ou ofensivos.
No entanto, a OpenAI admitiu que a moderação de conteúdos avança rapidamente, uma vez que os seres humanos estão constantemente a inventar novas formas de contornar os filtros, por exemplo, utilizando novos termos de calão para evitar a deteção.
Além disso, o enviesamento continua a ser uma preocupação, uma vez que as decisões da GPT-4 podem refletir os enviesamentos dos seus dados de formação. Isto poderia levar a pontos cegos ou a um tratamento imprevisível de alguns conteúdos.
É de salientar que os moderadores de conteúdos quenianos estavam a realizar essa tarefa para ajudar a alinhar o ChatGPT.
Assim, mesmo a utilização de IA para moderar conteúdos acaba por exigir algum nível de exposição humana.