Activision lança ferramentas de IA para assinalar automaticamente abusos no jogo para Call of Duty

5 de setembro de 2023

AI WarZone

A Activision recorreu à ajuda da tecnologia de IA da Modulate, conhecida como ToxMod, para monitorizar as conversas na série Call of Duty.

De acordo com um publicação no blogue CallofDuty.comO ToxMod foi concebido para efetuar análises de sentimentos e intenções em tempo real para detetar abusos no jogo e assinalá-los para moderação humana. 

Isto significa que pode identificar não só discursos de ódio e assédio explícitos, mas também formas mais subtis de mau comportamento.

Até agora, o ToxMod tem sido utilizado principalmente em títulos de RV mais pequenos, como Among Us. 

O ToxMod assinala discursos potencialmente abusivos no jogo e transmite-os para análise pelos moderadores humanos da Activision.

Se se verificar uma violação do código de conduta oficial de Call of Duty - que não permite comentários depreciativos baseados na raça, identidade ou expressão de género, orientação sexual, idade, cultura, fé, capacidades mentais ou físicas ou país de origem - os jogadores podem ser penalizados. 

Estas sanções vão desde uma suspensão de dois dias até à proibição vitalícia em caso de infracções extremas ou repetidas.

O ToxMod está a ser testado em Call of Duty: Modern Warfare II e Warzone. Espera-se um lançamento em grande escala juntamente com o lançamento de Modern Warfare III em novembro próximo.

Por enquanto, apenas os chats em inglês estão sob vigilância, mas a Activision tenciona alargar o seu suporte linguístico no futuro.

Como é que o ToxMod funciona?

Tradicionalmente, o ónus de reportar comportamentos tóxicos tem recaído sobre os jogadores. O ToxMod altera esta situação, identificando e tratando proactivamente as interacções prejudiciais. 

ToxMod refere que 67% dos jogadores multijogadores afirmaram que provavelmente deixariam de jogar um jogo se se deparassem com comportamentos tóxicos e 83% dos jogadores adultos de todos os grupos demográficos afirmaram ter-se deparado com comportamentos tóxicos em linha.

A tecnologia de IA foi concebida para compreender as nuances da conversação, desde o tom e a emoção até à intenção. Alegadamente, consegue distinguir entre brincadeiras amigáveis e toxicidade genuína. Depois de fazer a triagem e analisar o discurso potencialmente prejudicial, passa os casos mais prováveis de abuso genuíno para os moderadores humanos. 

De acordo com a ToxMod, todos os dados são anonimizados e protegidos de acordo com as normas ISO 27001, e a Modulate garante que os dados não serão vendidos nem alugados.

Os jogadores podem sugerir que o ToxMod põe em causa a liberdade de expressão - que deveria eventualmente ser alargada aos ambientes digitais - embora esta seja uma prerrogativa dos criadores de jogos e das plataformas. 

Se o ToxMod acabar por ser demasiado draconiano, o lobby do Call of Duty poderá tornar-se num ambiente bastante estéril.

Junte-se ao futuro


SUBSCREVER HOJE

Claro, conciso e abrangente. Fique a par dos desenvolvimentos da IA com DailyAI

Calças de ganga Sam

Sam é um escritor de ciência e tecnologia que trabalhou em várias startups de IA. Quando não está a escrever, pode ser encontrado a ler revistas médicas ou a vasculhar caixas de discos de vinil.

×

PDF GRATUITO EXCLUSIVO
Fique à frente com o DailyAI

Subscreva a nossa newsletter semanal e receba acesso exclusivo ao último livro eletrónico do DailyAI: 'Mastering AI Tools: Seu guia 2024 para aumentar a produtividade'.

*Ao subscrever a nossa newsletter, aceita a nossa Política de privacidade e o nosso Termos e condições