fbpx

Activision está tratando de reducir la toxicidad de Call of Duty

Activision busca frenar el pozo negro tóxico que es el modo multijugador de Call of Duty con algunas características que llegarán en su próximo juego “Black Ops 6”.

Por si no lo sabía, Activision busca frenar lo tóxico que es el modo multijugador de Call of Duty con algunas características que llegarán en su próximo juego “Black Ops 6”. Cómo lo decíamos hace ya bastante tiempo, los gamers no tienen un camino fácil. Dejando un poco atrás las tretas de ciberseguridad y, entrando en contexto de la trampa, la situación se volvió tan álgida que, ahora este tipo de situaciones se ha vuelto “el pan de cada día” (expresión que implica mucha frecuencia).

Encima de eso, el lenguaje en los chats se ha vuelto demasiado tóxico. Por lo mismo, el equipo de desarrollo de Activision lanzó su sistema de voz y moderación en Modern Warfare 3 en el lanzamiento, Black Ops 6 tendrá una versión más sólida el primer día. La moderación por voz estará disponible en 5 idiomas: para ser más exactos, ya es compatible con inglés, español y portugués, y tendrá francés y alemán cuando se lance Black Ops 6. Vale la pena destacar que las herramientas de texto tienen la capacidad de poder monitorear aún más, con la capacidad de trabajar con 20 idiomas, incluidos japonés, turco y rumano.

 

Activision busca frenar el pozo negro tóxico que es el modo multijugador de Call of Duty con algunas características que llegarán en su próximo juego “Black Ops 6”

El sistema de moderación de voz, denominado “ToxMod”, fue desarrollado por Modulate.ai y usa el aprendizaje automático para monitorear los chats de voz y texto en busca de mal comportamiento y posible toxicidad en tiempo real. No prohíbe directamente a los jugadores ni puede tomar decisiones, pero tiene la capacidad de señalar posibles violaciones del código de conducta a un equipo de personas reales que pueden emitir prohibiciones o suspensiones. Call of Duty usa Community Sift, una herramienta de moderación de Inteligencia Artificial comunitaria desarrollada por Microsoft, para monitorear el chat de texto.

Activision ha afirmado en una nueva publicación de blog que: desde que se implementó el chat de voz mejorado en el mes de junio, ha habido una disminución del 67% en los reincidentes en delitos relacionados con el chat de voz en Modern Warfare 3 y Call of Duty: Warzone, junto con una reducción del 43% en la exposición a la toxicidad de la voz. Del mismo modo señala que ha bloqueado más de 45 millones de mensajes de texto desde el mes de noviembre pasado.

Aunque Call of Duty es posiblemente la serie de disparos multijugador más popular del mundo, es conocida por sus problemas de toxicidad en la comunidad, lo que ha llevado a Activision a publicar un código de conducta y herramientas, como ToxMod, para ayudar a castigar a los malos actores. El código de conducta indica que el estudio no “tolera el acoso ni la intimidación”, condena las trampas y alienta a los jugadores a denunciar cualquier incidente.

Deja un comentario