Activision despliega herramientas de IA para marcar automáticamente los abusos en Call of Duty

5 de septiembre de 2023

AI WarZone

Activision ha recurrido a la ayuda de la tecnología de IA de Modulate, conocida como ToxMod, para controlar las conversaciones en la serie Call of Duty.

Según un entrada de blog en CallofDuty.comToxMod está diseñado para realizar análisis de sentimientos e intenciones en tiempo real con el fin de detectar abusos en el juego y señalarlos para su moderación humana. 

Esto significa que podría identificar no sólo la incitación abierta al odio y el acoso, sino también formas más sutiles de mal comportamiento.

Hasta ahora, ToxMod se ha utilizado principalmente en títulos de RV más pequeños, como Among Us. 

ToxMod señala las expresiones potencialmente abusivas dentro del juego y las transmite para que las revisen los moderadores humanos de Activision.

Si se descubre que han infringido el código de conducta oficial de Call of Duty -que prohíbe los comentarios despectivos basados en la raza, la identidad o expresión de género, la orientación sexual, la edad, la cultura, la fe, las capacidades mentales o físicas o el país de origen-, los jugadores podrían enfrentarse a sanciones. 

Estas sanciones van desde una suspensión de dos días hasta la prohibición de por vida en caso de infracciones extremas o reiteradas.

ToxMod se está probando en fase beta en Call of Duty: Modern Warfare II y Warzone. Se espera un lanzamiento a gran escala junto con el lanzamiento de Modern Warfare III el próximo noviembre.

Por ahora, sólo se vigilan los chats en inglés, pero Activision tiene intención de ampliar la compatibilidad lingüística en el futuro.

¿Cómo funciona ToxMod?

Tradicionalmente, la carga de informar sobre comportamientos tóxicos ha recaído en los jugadores. ToxMod cambia esta situación al identificar y abordar proactivamente las interacciones perjudiciales. 

ToxMod informa de que 67% de los jugadores multijugador han declarado que probablemente dejarían de jugar a un juego si se encontraran con un comportamiento tóxico, y 83% de los jugadores adultos de todos los grupos demográficos han declarado haberse enfrentado a la toxicidad en línea.

La tecnología de IA está diseñada para comprender los matices de la conversación, desde el tono y la emoción hasta la intención. Supuestamente, puede distinguir entre bromas amistosas y auténtica toxicidad. Tras clasificar y analizar el discurso potencialmente dañino, pasa los casos más probables de abuso genuino a moderadores humanos. 

Según ToxMod, todos los datos son anónimos y están protegidos conforme a las normas ISO 27001, y Modulate garantiza que los datos no se venderán ni alquilarán.

Los jugadores pueden sugerir que ToxMod pone en peligro la libertad de expresión -que posiblemente debería extenderse a los entornos digitales-, aunque esto es prerrogativa de los desarrolladores y las plataformas de juego. 

Si ToxMod resulta ser demasiado draconiano, el vestíbulo de Call of Duty podría convertirse en un entorno bastante estéril.

Únete al futuro


SUSCRÍBETE HOY

Claro, conciso y completo. Conozca los avances de la IA con DailyAI

Sam Jeans

Sam es un escritor de ciencia y tecnología que ha trabajado en varias startups de IA. Cuando no está escribiendo, se le puede encontrar leyendo revistas médicas o rebuscando en cajas de discos de vinilo.

×

PDF GRATUITO EXCLUSIVO
Adelántese con DailyAI

Suscríbase a nuestro boletín semanal y reciba acceso exclusivo al último eBook de DailyAI: 'Mastering AI Tools: Su guía 2024 para mejorar la productividad'.

*Al suscribirse a nuestro boletín de noticias, acepta nuestra política de privacidad. Política de privacidad y nuestro Condiciones generales