A OpenAI anuncia a intenção de implementar a GPT-4 para moderação de conteúdos

17 de agosto de 2023

GPT-4

A OpenAI anunciou o potencial da GPT-4 para modernizar a tarefa de moderação de conteúdos, reduzindo a necessidade de supervisão humana. 

A Internet está constantemente a ser moderada no que diz respeito a conteúdos nocivos, odiosos ou inaceitáveis e, embora os algoritmos já trabalhem nos bastidores para automatizar o processo, a perceção humana continua a ser inestimável. 

Os moderadores de conteúdos têm esta responsabilidade e têm de fazer uma triagem de conteúdos traumáticos que retratam o suicídio, a tortura e o assassínio.

A OpenAI prevê um futuro em que a IA simplifica a moderação de conteúdos em linha de acordo com as directrizes específicas da plataforma, reduzindo significativamente a pressão sobre os moderadores humanos. 

Num publicação no blogueA IA pode ajudar a moderar o tráfego em linha de acordo com a política específica da plataforma e aliviar a carga mental dos moderadores humanos, que provavelmente são centenas de milhares em todo o mundo".

Este é um tema importante, uma vez que a OpenAI foi recentemente envolvido num escândalo envolvendo moderadores de conteúdos que trabalham para a empresa de serviços de dados Sama em Nairobi, no Quénia.

Os trabalhadores tiveram de fazer uma triagem do conteúdo do texto gráfico para melhorar o "alinhamento" do ChatGPT - que descreve a modificação dos resultados da IA de acordo com os limites éticos, morais e políticos "desejáveis" - uma prática altamente subjectiva. 

A equipa de moderação de conteúdos denunciou condições de trabalho traumáticas e injustas e apresentou uma petição ao governo queniano, que culminou numa ação judicial.

A OpenAI diz que o GPT-4 pode ajudar a criar políticas de conteúdo personalizado e aplicá-las ao conteúdo em escala. 

Comparando o GPT-4 com a moderação manual, a OpenAI destacou a proficiência da IA em oferecer rotulagem consistente e feedback rápido, explicando: "As pessoas podem interpretar as políticas de maneira diferente ou alguns moderadores podem levar mais tempo para digerir novas mudanças nas políticas, levando a rótulos inconsistentes. Em comparação, os LLMs são sensíveis a diferenças granulares na redação e podem se adaptar instantaneamente às atualizações de políticas para oferecer uma experiência de conteúdo consistente para os usuários.

No entanto, apesar do potencial do GPT-4 para aliviar a carga imposta aos moderadores de conteúdos, a OpenAI admitiu que a automatização total do processo não é provavelmente possível, afirmando: "Tal como acontece com qualquer aplicação de IA, os resultados e a produção terão de ser cuidadosamente monitorizados, validados e refinados mantendo os humanos no circuito".

Como é que a OpenAI tenciona tirar partido da GPT-4 para a moderação de conteúdos

As plataformas digitais enfrentam um desafio permanente: moderar grandes quantidades de conteúdos de forma rápida e exacta. 

Historicamente, o trabalho pesado era suportado por moderadores humanos com consequências psicológicas potencialmente desastrosas, muitas vezes associadas a baixos salários. 

A OpenAI procura tirar partido da GPT-4 para implementar automaticamente políticas destinadas a limitar os conteúdos nocivos. A empresa destacou os seguintes benefícios: 

  • Velocidade: Utilizando o GPT-4, as alterações à política de conteúdos que costumavam demorar meses são agora efectuadas em horas.
  • Consistência: A interpretação humana das políticas de conteúdo pode variar, levando a inconsistências. O GPT-4 oferece uma abordagem normalizada, adaptando-se aos ajustamentos das políticas.
  • Bem-estar mental: A automatização de grande parte do processo de moderação de conteúdos com o GPT-4 pode reduzir a tensão emocional dos moderadores humanos, que frequentemente se deparam com conteúdos nocivos ou ofensivos.

No entanto, a OpenAI admitiu que a moderação de conteúdos avança rapidamente, uma vez que os seres humanos estão constantemente a inventar novas formas de contornar os filtros, por exemplo, utilizando novos termos de calão para evitar a deteção. 

Além disso, o enviesamento continua a ser uma preocupação, uma vez que as decisões da GPT-4 podem refletir os enviesamentos dos seus dados de formação. Isto poderia levar a pontos cegos ou a um tratamento imprevisível de alguns conteúdos.

É de salientar que os moderadores de conteúdos quenianos estavam a realizar essa tarefa para ajudar a alinhar o ChatGPT.

Assim, mesmo a utilização de IA para moderar conteúdos acaba por exigir algum nível de exposição humana.

Junte-se ao futuro


SUBSCREVER HOJE

Claro, conciso e abrangente. Fique a par dos desenvolvimentos da IA com DailyAI

Calças de ganga Sam

Sam é um escritor de ciência e tecnologia que trabalhou em várias startups de IA. Quando não está a escrever, pode ser encontrado a ler revistas médicas ou a vasculhar caixas de discos de vinil.

×

PDF GRATUITO EXCLUSIVO
Fique à frente com o DailyAI

Subscreva a nossa newsletter semanal e receba acesso exclusivo ao último livro eletrónico do DailyAI: 'Mastering AI Tools: Seu guia 2024 para aumentar a produtividade'.

*Ao subscrever a nossa newsletter, aceita a nossa Política de privacidade e o nosso Termos e condições