Activision внедряет инструменты искусственного интеллекта для автоматической фиксации нарушений в игре для Call of Duty

5 сентября 2023 года

AI WarZone

Компания Activision привлекла технологию искусственного интеллекта Modulate, известную как ToxMod, для мониторинга разговоров в серии игр Call of Duty.

Согласно запись в блоге на CallofDuty.comToxMod предназначен для анализа настроения и намерений в режиме реального времени, чтобы обнаружить злоупотребления в игре и отметить их для модерации человеком. 

Это означает, что потенциально он может выявлять не только открытые проявления ненависти и преследования, но и более тонкие формы плохого поведения.

До сих пор ToxMod использовался в основном в небольших VR-играх, таких как Among Us. 

ToxMod отмечает потенциально оскорбительные высказывания в игре и передает их на рассмотрение человеческим модераторам Activision.

Если игроков уличат в нарушении официального кодекса поведения Call of Duty, который запрещает унизительные комментарии на основе расы, гендерной идентичности или самовыражения, сексуальной ориентации, возраста, культуры, веры, умственных или физических способностей или страны происхождения, им грозит наказание. 

Эти наказания варьируются от двухдневного отстранения до пожизненного запрета за крайние или повторные проступки.

В настоящее время ToxMod проходит бета-тестирование в Call of Duty: Modern Warfare II и Warzone. Полномасштабный запуск ожидается вместе с выходом Modern Warfare III в ноябре этого года.

Пока под наблюдением находятся только англоязычные чаты, но Activision намерена расширить языковую поддержку в будущем.

Как работает ToxMod?

Традиционно на игроков возлагалось бремя сообщать о токсичном поведении. ToxMod меняет эту ситуацию, проактивно выявляя и устраняя вредные взаимодействия. 

ToxMod сообщает, что 67% многопользовательских геймеров заявили, что, скорее всего, бросят игру, если столкнутся с токсичным поведением, а 83% взрослых геймеров всех демографических групп сообщили, что сталкивались с токсичным поведением в сети.

Технология искусственного интеллекта создана для понимания нюансов разговора, от тона и эмоций до намерений. Он якобы может отличить дружеское подшучивание от настоящей токсичности. После сортировки и анализа потенциально вредных высказываний он передает наиболее вероятные случаи настоящих оскорблений человеческим модераторам. 

Согласно ToxMod, все данные анонимизируются и защищаются в соответствии со стандартами ISO 27001, а Modulate гарантирует, что данные не будут ни проданы, ни сданы в аренду.

Геймеры могут предположить, что ToxMod ставит под угрозу свободу слова, которая, возможно, должна распространяться и на цифровую среду, хотя это прерогатива разработчиков игр и платформ. 

Если ToxMod окажется слишком драконовским, то лобби Call of Duty может стать довольно стерильной средой.

Присоединяйтесь к будущему


ПОДПИСАТЬСЯ СЕГОДНЯ

Четко, лаконично, всесторонне. Получите представление о развитии искусственного интеллекта с помощью DailyAI

Сэм Джинс

Сэм - писатель в области науки и техники, работавший в различных AI-стартапах. Когда он не пишет, его можно найти за чтением медицинских журналов или копанием в коробках с виниловыми пластинками.

×

ЭКСКЛЮЗИВНЫЙ БЕСПЛАТНЫЙ PDF
Будьте впереди с DailyAI

Подпишитесь на нашу еженедельную рассылку и получите эксклюзивный доступ к последней электронной книге DailyAI: "Освоение инструментов искусственного интеллекта: Ваше руководство по повышению производительности в 2024 году".

* Подписываясь на нашу рассылку, вы принимаете наши Политика конфиденциальности и наш Условия и положения