Activision, la compañía desarrolladora de la franquicia Call of Duty, ha anunciado que ha expulsado a más de 2 millones de jugadores por comportamiento tóxico exhibido en el chat de voz. Este comportamiento incluye el uso de lenguaje ofensivo, grosero u hostil, así como el acoso y la discriminación.
La compañía ha estado utilizando la moderación de IA para detectar este tipo de comportamiento. El software de IA analiza el chat de voz en busca de palabras clave o frases que están prohibidas según el Código de Conducta de Call of Duty.
Activision afirma que solo uno de cada cinco casos de comportamiento tóxico es denunciado por los jugadores. Por ello, anima a los jugadores a denunciar activamente a quienes causan situaciones incómodas.
La compañía ha visto una reducción del 8% mes a mes en los reincidentes desde el lanzamiento de la moderación de chat por IA. Específicamente, en Modern Warfare III, ha habido casi un 50% de reducción en el número de jugadores expuestos a “casos graves” de chat disruptivo.
Estas medidas son un paso positivo para crear comunidades de juego más seguras y agradables para todos los jugadores.