Activision lancia strumenti di intelligenza artificiale per segnalare automaticamente gli abusi nel gioco per Call of Duty

5 settembre 2023

AI WarZone

Activision ha chiesto l'aiuto della tecnologia AI di Modulate, nota come ToxMod, per monitorare le conversazioni nella serie Call of Duty.

Secondo un post sul blog CallofDuty.comToxMod è progettato per eseguire in tempo reale l'analisi del sentiment e delle intenzioni per rilevare gli abusi nel gioco e segnalarli alla moderazione umana. 

Ciò significa che potenzialmente potrebbe identificare non solo i discorsi di odio e le molestie palesi, ma anche forme più sottili di comportamento scorretto.

Finora, ToxMod è stato utilizzato principalmente in titoli VR minori come Among Us. 

ToxMod segnala i discorsi potenzialmente offensivi all'interno del gioco e li passa all'esame dei moderatori umani di Activision.

Se si scopre che i giocatori hanno violato il codice di condotta ufficiale di Call of Duty - che non consente commenti sprezzanti basati su razza, identità o espressione di genere, orientamento sessuale, età, cultura, fede, abilità mentali o fisiche, o paese di origine - potrebbero incorrere in sanzioni. 

Le sanzioni vanno dalla sospensione di due giorni al divieto a vita in caso di infrazioni estreme o ripetute.

ToxMod è in fase di beta test in Call of Duty: Modern Warfare II e Warzone. Il lancio su larga scala è previsto per il prossimo novembre, in concomitanza con l'uscita di Modern Warfare III.

Per ora sono sorvegliate solo le chat in lingua inglese, ma Activision intende estendere il supporto linguistico in futuro.

Come funziona ToxMod?

Tradizionalmente, l'onere di segnalare i comportamenti tossici spetta ai giocatori. ToxMod cambia questa situazione, identificando e affrontando in modo proattivo le interazioni dannose. 

ToxMod riporta che 67% dei giocatori multiplayer hanno dichiarato che probabilmente abbandonerebbero un gioco se si imbattessero in un comportamento tossico, e 83% dei giocatori adulti di tutte le fasce demografiche hanno riferito di aver affrontato la tossicità online.

La tecnologia AI è costruita per comprendere le sfumature delle conversazioni, dal tono e dalle emozioni alle intenzioni. È in grado di distinguere tra le battute amichevoli e la vera e propria tossicità. Dopo aver classificato e analizzato i discorsi potenzialmente dannosi, passa i casi più probabili di vero abuso ai moderatori umani. 

Secondo ToxMod, tutti i dati sono anonimizzati e protetti secondo gli standard ISO 27001 e Modulate garantisce che i dati non saranno né venduti né affittati.

I giocatori possono suggerire che ToxMod metta a repentaglio la libertà di parola, che forse dovrebbe essere estesa agli ambienti digitali, anche se questa è una prerogativa degli sviluppatori e delle piattaforme di gioco. 

Se ToxMod dovesse rivelarsi eccessivamente draconiano, la lobby di Call of Duty potrebbe diventare un ambiente piuttosto sterile.

Partecipa al futuro


ISCRIVITI OGGI

Chiaro, conciso, completo. Per conoscere gli sviluppi dell'IA con DailyAI

Sam Jeans

Sam è uno scrittore di scienza e tecnologia che ha lavorato in diverse startup di intelligenza artificiale. Quando non scrive, lo si può trovare a leggere riviste mediche o a scavare tra scatole di dischi in vinile.

×

PDF GRATUITO ESCLUSIVO
Rimanere all'avanguardia con DailyAI

Iscriviti alla nostra newsletter settimanale e ricevi l'accesso esclusivo all'ultimo eBook di DailyAI: 'Mastering AI Tools: La tua guida 2024 per una maggiore produttività".

*Iscrivendosi alla nostra newsletter si accetta la nostra Informativa sulla privacy e il nostro Termini e condizioni