Noticias

Riot Games y Ubisoft se están uniendo en un proyecto de investigación de IA: utilizan los registros de chat de los jugadores como datos de entrenamiento.

Riot Games y Ubisoft se unen en un proyecto de investigación de IA: utilizan los registros de chat de los jugadores como datos de entrenamiento

Ubisoft y Riot están colaborando en un proyecto de investigación contra la toxicidad, que se centrará en recopilar registros de chat en el juego como datos de entrenamiento para algoritmos de IA. Se espera que las dos compañías publiquen sus hallazgos a partir de estos datos el próximo verano, cuando se decidirán los próximos pasos.

Hablando conmigo a través de una llamada de Zoom, Wesley Kerr, director de investigación tecnológica de Riot, e Yves Jacquier, director ejecutivo de Ubisoft La Forge, compartieron sus objetivos a largo plazo y sus esperanzas para el proyecto. Aclamándolo como el primero de su tipo como una colaboración de investigación abierta en el campo de la IA entre dos compañías de juegos, esperan que los aprendizajes publicados el próximo año sean el primer paso en el uso efectivo de la IA por parte de la industria como herramienta para reducir la toxicidad. .

Por alguna razón, los jugadores de Udyr siempre han sido extremadamente tóxicos cuando jugaba mucho a LoL. Me pregunto si eso sigue siendo cierto después de su rediseño.

Según Jacquier, el proyecto tiene tres objetivos principales. Primero, cree una red de conjuntos de datos compartidos, llenos de datos de jugadores completamente anónimos. El segundo, crear un algoritmo de IA que pueda funcionar a partir de estos datos. Finalmente, que esta alianza sirva como “prototipo” para futuras iniciativas de la industria contra la toxicidad, fomentando la competencia y nuevos avances en la materia.

Tiene sentido que Riot y Ubisoft sean dos empresas que hayan invertido en resolver este problema, teniendo en cuenta sus populares títulos multijugador. Rainbow Six: Siege se ensucia muy rápido tan pronto como la cooperativa de todo el equipo recibe un golpe, y los gemelos problemáticos de Riot, League of Legends y Valorant quedan empapados en una baba tóxica.

Tanto Kerr como Jacquier enfatizaron a lo largo de la entrevista que el anonimato de los jugadores y el cumplimiento de las leyes regionales y el RGPD se encontraban entre sus principales prioridades. Cuando se le preguntó si los datos de los jugadores se comparten entre empresas, Kerr señaló que la información de su cuenta de League of Legends no se enviará a otras empresas sin el consentimiento del jugador. En cambio, los registros de chat serían despojados de la información de identificación antes de que los algoritmos pudieran seleccionarlos y extraerlos.

El problema más inmediato que te viene a la mente cuando escuchas sobre la toxicidad de la IA es la persistencia de los jugadores, decididos a hacerte saber lo malo que eres. La invención de nuevas palabras, un léxico cambiante de lenguaje basura, está en constante evolución dentro de las comunidades en línea. ¿Cómo podría una IA responder a esto? El truco, según Jacquier, es no confiar en fuentes de datos estáticas y de diccionario. De ahí el valor de usar los registros de chat de los jugadores actuales, que reflejan el meta de toxicidad actual.

Luego está la otra preocupación de los fallos de encendido, especialmente en un entorno donde las bromas amistosas entre amigos, compañeros de equipo aleatorios e incluso jugadores enemigos pueden ser parte de la experiencia. Si estoy jugando en el carril superior en League of Legends y escribo "buen amigo CS" a mi oponente del carril 0/3, eso es solo una broma, ¿no? Si me hacen lo mismo, es estimulante. Me hace querer ganar más y mejora la experiencia. ¿Cómo puede una IA diferenciar entre la toxicidad dañina real y las bromas?

"Es muy difícil", dice Jacquer. “Comprender el contexto de una discusión es una de las partes más difíciles. Por ejemplo, si un jugador amenaza a otro jugador. En Rainbow Six, si un jugador dice "oye, te sacaré", eso puede ser parte de la fantasía. Mientras que en otros contextos podría tener un significado muy diferente. Kerr continuó con algunos de los beneficios de los videojuegos en este sentido, gracias a otros factores.

Considerar con quién está haciendo cola, dice, es un ejemplo de un factor que podría ayudar a la IA a determinar la toxicidad real de las costillas divertidas. En teoría, no te golpearían los perros callejeros si llamas mierda a tu mejor amigo de toda la vida en un lobby de LoL.

En cuanto al futuro, todas las miradas están puestas en los resultados que se publiquen el próximo año. Por ahora, solo se enfoca en los registros de chat, pero con Riot Games considerando monitorear las comunicaciones de voz en Valorant, Kerr se negó a quitarlo de la mesa como un área futura de investigación si la colaboración continúa más allá de 2023. Por ahora, eso es un plan. Primera etapa de un largo viaje, las dos compañías parecen destinadas a viajar. Si bien tanto Kerr como Jacquier esperan que el proyecto de investigación arroje resultados importantes e inspire a otras compañías a seguir su ejemplo, no creen que la IA sea el principio y el fin de la moderación de la toxicidad.

“La IA es una herramienta, pero no es una panacea. Hay muchas maneras de mantener a los jugadores seguros, por lo que la idea es comprender mejor cómo se puede utilizar mejor esta herramienta para combatir el contenido dañino”.

En última instancia, esta investigación es solo una parte de un esfuerzo mayor, pero en la mente de Jacquier y Kerr, se espera que resulte esencial en el futuro. Solo el tiempo dirá si tienen razón, si pueden cumplir su promesa de que se respetará la privacidad de los jugadores y si la IA es realmente la próxima frontera en la batalla contra la toxicidad.