Noticias

ToxMod usa IA para expresar lenguaje abusivo en chat de voz en vivo

Combatir la toxicidad en los juegos multijugador sigue siendo un dolor de cabeza constante para los desarrolladores: Ubisoft ha intentado durante años reducir la toxicidad de los jugadores en Rainbow Six Siege, Valve ha tratado de eliminar y prohibir a los jugadores tóxicos de Dota 2 y EA ha eliminado miles de activos de sus juegos en el esperanzas de promover un entorno más positivo. Ahora, un desarrollador de software con sede en Boston ha lanzado una herramienta que podría ayudar a lograr avances significativos.

La herramienta se llama ToxMod y es un software que utiliza inteligencia artificial de aprendizaje automático para identificar comunicaciones tóxicas durante las sesiones de juego en línea. ToxMod reconoce los patrones del habla, observando las formas de onda no solo para decir lo que dicen los jugadores, sino también cómo lo dicen, y puede 'pronunciar' el lenguaje abusivo en vivo.

El concepto de ToxMod surgió del trabajo realizado por Mike Pappas y Carter Huffman y su empresa Modulate, que fundaron después de conocerse mientras estudiaban física en el MIT. Pappas dice que se conocieron en una pizarra para resolver un problema de física y rápidamente decidieron comenzar un negocio juntos después de descubrir que abordaban los problemas de manera complementaria.

“Como grandes jugadores, el juego fue nuestra prioridad desde el principio”, nos dice Pappas. “Cuando empezamos a pensar en aplicaciones allí, estábamos pensando en el éxito de Fortnite y las máscaras personalizables y todas estas herramientas para una mayor inmersión y más expresividad en los juegos.

Su primera gran idea fue crear máscaras de voz para los jugadores: mejoras "cosméticas" que los jugadores podían usar para cambiar la forma en que sonaban en el chat de voz. Pero Pappas dice que al consultar con los desarrolladores de juegos sobre el uso de máscaras de voz, escucharon una y otra vez cómo los estudios luchan por encontrar formas de hacer que los jugadores estén más seguros usando el chat de voz: la toxicidad les impedía querer usar un casco. .

Un grupo de aspirantes a ladrones con todas las armas nuevas de GTA Cayo Perico Heist.

Esto llevó a Modulate a buscar formas de utilizar la tecnología de aprendizaje automático que había diseñado para que más jugadores se sintieran más seguros en línea. El uso de máscaras de voz podría permitir que alguien oculte su edad, género, etnia o cualquier otra cosa que pueda convertirlo en un objetivo de acoso en línea. Pappas dijo que Modulate quería pensar en grande, sin embargo, querían crear una "solución completa para este problema de chat de voz".

"Algo importante que surgió en nuestras conversaciones en el estudio fueron preguntas como, ¿podrías jurar en vivo?". el dice. "¿O podrías detectar si alguien está acosando a alguien y alertar a nuestro equipo al respecto?"

Leer más: Cómo Sea of ​​​​Thieves es antitóxico por diseño

Usando tecnología que ya había construido, Modulate desarrolló ToxMod, que usa IA para escanear formas de onda de voz y no solo puede decir lo que dicen los jugadores, sino también cómo lo dicen. El algoritmo es lo suficientemente sofisticado como para identificar matices en el habla humana, detectar picos de agresión y reaccionar en consecuencia, sobre la marcha.

El SDK de ToxMod permite a los desarrolladores integrar la tecnología directamente en sus juegos, y gran parte del filtrado ocurre en el lado del cliente, explica Pappas. Otra capa de filtrado ocurre en el lado del servidor, aquí es donde el discurso del "área gris" puede ser marcado y manejado por un moderador humano si es necesario, pero con el tiempo, la IA de ToxMod aprende a manejar más y más casos sin la necesidad de intervención humana. Los desarrolladores pueden personalizar ToxMod según las necesidades específicas de sus juegos y comunidades, eligiendo los umbrales apropiados para esa configuración y audiencia.

Mejor carga ISO de Warzone

“¿Hasta qué punto quiere calificar el discurso violento como una amenaza potencial? Si estás jugando a Call of Duty, tal vez eso sea menos importante, a menos que sea extremadamente serio”, dice Pappas. “Mientras que si juegas a Roblox, podría ser un problema sin importar qué”.

ToxMod también funciona como una herramienta predictiva y también puede administrar la reputación del jugador. Observa lo que sucede en el juego, así como el discurso que analiza, lo que le permite determinar con bastante rapidez si un jugador se está volviendo más propenso a un comportamiento tóxico en circunstancias específicas, como una racha perdedora o un ataque del equipo. Esto significa que puede hacer recomendaciones a los servidores de emparejamiento de un juego que pueden ayudar a evitar que ocurran estas circunstancias.

En su frustración, comienzan a decir cosas sexistas. ¿Es malo? Absolutamente. Todavía queremos informar esto en este momento.

Mike Pappas

Cofundador y CEO de Modular

"Lo que realmente queremos poder averiguar es si alguien ha perdido los últimos cinco juegos y está súper, súper frustrado y se une a algunas mujeres que son nuevas en el juego y en su frustración que están a punto de perder el juego, empiezan a decir cosas sexistas”, dice Pappas. "¿Es mala? Absolutamente. Todavía queremos marcar esto por ahora porque estas mujeres están pasando por un mal momento ahora, y tenemos que detener esto por ahora. Pero en términos de las repercusiones en ese actor, es posible que no te baneen por 30 días.

"En cambio, es posible que hayamos aprendido que estás empeorando muy rápidamente, por lo que cuando hayas perdido las últimas rondas, tal vez deberíamos aconsejar al sistema de emparejamiento, 'oye, tírale un hueso a ese tipo, dale algo más experimentado'". compañeros de equipo para ganar, para mantenerlo en algún tipo de estado emocional en el que no es probable que explote con la gente.

Miniatura de YouTube

Cada juego y su comunidad de jugadores es un caso único con necesidades específicas, y Pappas dice que ToxMod puede trabajar con los desarrolladores para ajustar el software para cumplir con esos requisitos. Modulate aún no está listo para anunciar ninguna asociación oficial, pero está en conversaciones con miembros de Fair Play Alliance, una coalición de editores y desarrolladores de juegos comprometidos con fomentar comunidades saludables. Este grupo incluye Epic Games, EA, Riot, Roblox, Blizzard y Ubisoft, entre otros.

“Queremos arreglar el chat de voz”, dijo Pappas. "Podemos intervenir y no solo proporcionarles una herramienta, sino también asociarnos con ellos y decir que tenemos este conjunto de herramientas que nos permite realmente dar forma a su experiencia de chat de voz, de la manera que lo necesita, y le permite realmente hacer seguro de que, en general, será la rica experiencia que debería ser. »

Puede encontrar más información sobre ToxMod en el sitio web oficial de Modulate, y Pappas dice que está listo para implementarse hoy. Modular lanzó oficialmente la herramienta el 14 de diciembre.

“Cualquier desarrollador de juegos puede conectar ToxMod mañana y puede comenzar a ver todo el audio que procesa”, dice. “La tecnología está lista. Estamos trabajando arduamente para implementar algunas de estas integraciones iniciales, por lo que seguramente será un año emocionante.