Activision hat die Hilfe der KI-Technologie von Modulate, bekannt als ToxMod, in Anspruch genommen, um Unterhaltungen in der Call of Duty-Serie zu überwachen.
Laut einer Blogbeitrag auf CallofDuty.comToxMod wurde entwickelt, um in Echtzeit Gefühls- und Absichtsanalysen durchzuführen, um Missbrauch im Spiel zu erkennen und ihn für die menschliche Moderation zu kennzeichnen.
Das bedeutet, dass nicht nur offene Hassreden und Belästigungen, sondern auch subtilere Formen des Fehlverhaltens erkannt werden könnten.
Bislang wurde ToxMod hauptsächlich in kleineren VR-Titeln wie Among Us eingesetzt.
ToxMod markiert potenziell beleidigende Äußerungen im Spiel und leitet sie zur Überprüfung an die menschlichen Moderatoren von Activision weiter.
Bei Verstößen gegen den offiziellen Verhaltenskodex von Call of Duty - der abfällige Bemerkungen aufgrund von Rasse, Geschlechtsidentität oder -ausdruck, sexueller Orientierung, Alter, Kultur, Glaube, geistigen oder körperlichen Fähigkeiten oder Herkunftsland verbietet - drohen den Spielern Strafen.
Diese Strafen reichen von einer zweitägigen Suspendierung bis hin zu einem lebenslangen Verbot bei extremen oder wiederholten Verstößen.
ToxMod wird in Call of Duty: Modern Warfare II und Warzone in der Beta getestet. Eine umfassende Einführung wird zusammen mit der Veröffentlichung von Modern Warfare III im kommenden November erwartet.
Im Moment werden nur englischsprachige Chats überwacht, aber Activision beabsichtigt, die Sprachunterstützung in Zukunft zu erweitern.
Wie funktioniert ToxMod?
Bislang lag die Verantwortung für die Meldung toxischen Verhaltens bei den Spielern. ToxMod ändert dies, indem es schädliche Interaktionen proaktiv identifiziert und anspricht.
ToxMod berichtet, dass 67% der Multiplayer-Spieler gesagt haben, dass sie wahrscheinlich aufhören würden, ein Spiel zu spielen, wenn sie auf toxisches Verhalten stoßen würden, und 83% der erwachsenen Spieler aller Bevölkerungsgruppen haben berichtet, dass sie online mit Toxizität konfrontiert wurden.
Die KI-Technologie ist darauf ausgelegt, Nuancen in Gesprächen zu verstehen, vom Tonfall über die Emotionen bis hin zur Absicht. Angeblich kann sie zwischen freundlichem Geplänkel und echter Toxizität unterscheiden. Nach der Einstufung und Analyse potenziell schädlicher Äußerungen leitet sie die wahrscheinlichsten Fälle von echtem Missbrauch an menschliche Moderatoren weiter.
Nach Angaben von ToxMod werden alle Daten anonymisiert und gemäß ISO 27001 gesichert, und Modulate garantiert, dass die Daten weder verkauft noch vermietet werden.
Gamer könnten meinen, dass ToxMod die Redefreiheit gefährdet - die möglicherweise auf digitale Umgebungen ausgedehnt werden sollte -, obwohl dies das Vorrecht der Spieleentwickler und Plattformen ist.
Sollte sich ToxMod als zu drakonisch erweisen, könnte die Call of Duty-Lobby zu einer ziemlich sterilen Umgebung werden.