Desde Call of Duty llevan varias medidas en su lucha contra los tramposos y toxicidad, en esta línea es que ahora comenzará a probar una herramienta con inteligencia artificial para combatir el comportamiento tóxico.
A tra´ves de una publicación en el blog de Call of Duty, es que anunciaron que utilizará un nuevo sistema de moderación de chat de voz a gran escala, la cual podrá identificar el lenguaje discriminatorio, discurso de odio, acoso y otros comportamientos tóxicos.
Esta herramienta es realizada por la empresa Modulate y tiene por nombre ToxMod. Según explican, “El nuevo sistema de moderación de chat de voz de Call of Duty utiliza ToxMod, la tecnología de moderación de chat de voz impulsada por IA de Modulate, para identificar en tiempo real y combatir el discurso tóxico, incluido el discurso de odio, el lenguaje discriminatorio, el acoso y más”.
“Este nuevo desarrollo reforzará los sistemas de moderación en curso liderados por el equipo anti toxicidad de Call of Duty, que incluye filtrado basado en texto en 14 idiomas para el texto del juego (chat y nombres de usuario), así como un robusto reproductor en el juego. sistema de informes”, agregan al respecto.
De acuerdo a lo que explican, comenzará en fase de beta en Norte América en Call of Duty: Modern Warfare II y Warzone.