Activision a fait appel à la technologie d'IA de Modulate, connue sous le nom de ToxMod, pour surveiller les conversations dans la série Call of Duty.
Selon un article de blog sur CallofDuty.comToxMod est conçu pour effectuer une analyse en temps réel des sentiments et des intentions afin de détecter les abus dans le jeu et de les signaler pour une modération humaine.
Cela signifie qu'il pourrait potentiellement identifier non seulement les discours haineux et le harcèlement manifestes, mais aussi des formes plus subtiles de mauvais comportement.
Jusqu'à présent, ToxMod a surtout été déployé dans des titres VR plus modestes comme Among Us.
ToxMod signale les discours potentiellement abusifs dans le jeu et les transmet pour examen aux modérateurs humains d'Activision.
En cas de violation du code de conduite officiel de Call of Duty, qui interdit les commentaires désobligeants fondés sur la race, l'identité ou l'expression sexuelle, l'orientation sexuelle, l'âge, la culture, la foi, les capacités mentales ou physiques ou le pays d'origine, les joueurs risquent d'être sanctionnés.
Ces sanctions vont d'une suspension de deux jours à une interdiction à vie en cas d'infractions extrêmes ou répétées.
ToxMod est testé en version bêta dans Call of Duty : Modern Warfare II et Warzone. Un lancement à grande échelle est prévu en même temps que la sortie de Modern Warfare III, en novembre prochain.
Pour l'instant, seuls les chats en anglais sont surveillés, mais Activision a l'intention d'étendre la prise en charge des langues à l'avenir.
Comment fonctionne ToxMod ?
Traditionnellement, c'est aux joueurs qu'il incombe de signaler les comportements toxiques. ToxMod change cette situation en identifiant et en traitant de manière proactive les interactions nocives.
ToxMod rapporte que 67% des joueurs multijoueurs ont déclaré qu'ils cesseraient probablement de jouer à un jeu s'ils étaient confrontés à un comportement toxique, et que 83% des joueurs adultes, toutes catégories démographiques confondues, ont déclaré avoir été confrontés à la toxicité en ligne.
La technologie de l'IA est conçue pour comprendre les nuances de la conversation, depuis le ton et l'émotion jusqu'à l'intention. Elle peut prétendument faire la distinction entre un badinage amical et une véritable toxicité. Après avoir trié et analysé les propos potentiellement nuisibles, elle transmet les cas les plus probables d'abus réels à des modérateurs humains.
Selon ToxMod, toutes les données sont anonymisées et sécurisées conformément aux normes ISO 27001, et Modulate garantit que les données ne seront ni vendues ni louées.
Les joueurs peuvent suggérer que ToxMod met en péril la liberté d'expression - qui devrait éventuellement être étendue aux environnements numériques - bien que ce soit la prérogative des développeurs de jeux et des plates-formes.
Si ToxMod s'avère trop draconien, le hall d'entrée de Call of Duty pourrait devenir un environnement assez stérile.