Activision ha recurrido a la ayuda de la tecnología de IA de Modulate, conocida como ToxMod, para controlar las conversaciones en la serie Call of Duty.
Según un entrada de blog en CallofDuty.comToxMod está diseñado para realizar análisis de sentimientos e intenciones en tiempo real con el fin de detectar abusos en el juego y señalarlos para su moderación humana.
Esto significa que podría identificar no sólo la incitación abierta al odio y el acoso, sino también formas más sutiles de mal comportamiento.
Hasta ahora, ToxMod se ha utilizado principalmente en títulos de RV más pequeños, como Among Us.
ToxMod señala las expresiones potencialmente abusivas dentro del juego y las transmite para que las revisen los moderadores humanos de Activision.
Si se descubre que han infringido el código de conducta oficial de Call of Duty -que prohíbe los comentarios despectivos basados en la raza, la identidad o expresión de género, la orientación sexual, la edad, la cultura, la fe, las capacidades mentales o físicas o el país de origen-, los jugadores podrían enfrentarse a sanciones.
Estas sanciones van desde una suspensión de dos días hasta la prohibición de por vida en caso de infracciones extremas o reiteradas.
ToxMod se está probando en fase beta en Call of Duty: Modern Warfare II y Warzone. Se espera un lanzamiento a gran escala junto con el lanzamiento de Modern Warfare III el próximo noviembre.
Por ahora, sólo se vigilan los chats en inglés, pero Activision tiene intención de ampliar la compatibilidad lingüística en el futuro.
¿Cómo funciona ToxMod?
Tradicionalmente, la carga de informar sobre comportamientos tóxicos ha recaído en los jugadores. ToxMod cambia esta situación al identificar y abordar proactivamente las interacciones perjudiciales.
ToxMod informa de que 67% de los jugadores multijugador han declarado que probablemente dejarían de jugar a un juego si se encontraran con un comportamiento tóxico, y 83% de los jugadores adultos de todos los grupos demográficos han declarado haberse enfrentado a la toxicidad en línea.
La tecnología de IA está diseñada para comprender los matices de la conversación, desde el tono y la emoción hasta la intención. Supuestamente, puede distinguir entre bromas amistosas y auténtica toxicidad. Tras clasificar y analizar el discurso potencialmente dañino, pasa los casos más probables de abuso genuino a moderadores humanos.
Según ToxMod, todos los datos son anónimos y están protegidos conforme a las normas ISO 27001, y Modulate garantiza que los datos no se venderán ni alquilarán.
Los jugadores pueden sugerir que ToxMod pone en peligro la libertad de expresión -que posiblemente debería extenderse a los entornos digitales-, aunque esto es prerrogativa de los desarrolladores y las plataformas de juego.
Si ToxMod resulta ser demasiado draconiano, el vestíbulo de Call of Duty podría convertirse en un entorno bastante estéril.