Xbox

Xbox publica el segundo informe de transparencia que muestra el papel vital de la moderación proactiva de contenido

Con una comunidad creciente de más de 3 mil millones de jugadores en todo el mundo, seguir invirtiendo en confianza y seguridad es esencial para fomentar un entorno en línea seguro e inclusivo. Proteger a los jugadores de daños es una parte integral del equipo de seguridad de Xbox y del trabajo que hacemos. Los jugadores a menudo no ven ni conocen todas las medidas de moderación de contenido que se ejecutan en segundo plano y que ayudan a que su experiencia sea más segura y acogedora. Hoy lanzamos nuestro segundo Informe de transparencia de Xboxque detalla los esfuerzos en curso para proteger mejor a nuestros jugadores e ilustra nuestras medidas de seguridad en acción.

Nuestro paquete de seguridad multifacético incluye nuestros esfuerzos de moderación proactivos y reactivos, estándares comunitarios, controles parentales y familiares, como la aplicación Xbox Family Settings, y nuestro trabajo continuo con socios y reguladores de la industria. Nuestras inversiones críticas en moderación de contenido combinan IA y tecnologías impulsadas por humanos para interceptar y filtrar contenido antes de que llegue a los jugadores y los afecte. Usamos una variedad de métricas que nos brindan la escala, la velocidad y el alcance para rastrear las crecientes interacciones y actividades de nuestros jugadores. Como se señala en el Informe de Transparencia, el 80 % (8,08 millones) del número total de solicitudes durante este período se realizaron a través de nuestros esfuerzos de moderación proactiva. Los datos articulan el impacto de este enfoque.

A medida que las necesidades de los jugadores continúan evolucionando, también lo hacen nuestras herramientas. La seguridad de nuestros jugadores es una prioridad máxima, y ​​para promover experiencias en línea seguras, continuaremos invirtiendo en innovación, trabajando en estrecha colaboración con los socios de la industria y los reguladores, y recopilando comentarios de la comunidad. Esperamos compartir más.

Infografía del informe de transparencia

Entre los puntos clave del informe:

  • Las medidas proactivas son un factor clave para experiencias de juego más seguras. En este periodo, 80% del total de nuestras acciones de ejecución emitidas son el resultado de nuestros esfuerzos de moderación proactiva. Nuestro enfoque de moderación proactiva incluye medidas tanto automatizadas como humanas que filtran el contenido antes de que llegue a los jugadores. Las herramientas automatizadas como Community Sift funcionan con texto, video e imágenes capturando contenido ofensivo en milisegundos. Solo en el último año, Community Sift evaluó 20 XNUMX millones de interacciones humanas en Xbox. También se detectaron y aplicaron medidas proactivas contra 100% manipulación de cuentas, piratería informática, phishing y trampa/cuentas no auténticas.
  • Mayor atención al contenido inapropiado. Entendemos que las necesidades de nuestros jugadores cambian constantemente y seguimos escuchando los comentarios de los jugadores sobre lo que es y no es aceptable en la plataforma, de acuerdo con nuestros Estándares de la comunidad. Durante este último período, hemos ampliado nuestra definición de contenido vulgar para incluir gestos ofensivos, contenido sexualizado y humor crudo. Este tipo de contenido generalmente se considera de mal gusto e inapropiado, lo que resta valor a la experiencia de juego básica para muchos de nuestros jugadores. Este cambio de política, junto con las mejoras a nuestros clasificadores de imágenes, ha resultado en una aumento del 450% en la aplicación de contenido vulgar, con 90,2% moderarse proactivamente. Estas acciones de cumplimiento a menudo resultan en la simple eliminación de contenido inapropiado, lo que se refleja en el aumento del 390% en aplicaciones de "solo contenido" durante este período.
  • Enfoque continuo en las cuentas no auténticas. Nuestra moderación proactiva, al alza 16,5x desde la misma época del año pasado, nos permite detectar el contenido y el comportamiento negativos antes de que llegue a los jugadores. El equipo de seguridad de Xbox ha publicado más 7.51 m aplicación proactiva contra cuentas no auténticas, representando 74% el número total de ejecuciones durante el período de referencia (en lugar de 57% último período del informe). Las cuentas no auténticas suelen ser cuentas automatizadas o creadas por bots que crean un campo de juego desigual y pueden afectar negativamente las experiencias positivas de los jugadores. Continuamos invirtiendo y mejorando nuestra tecnología para que los jugadores puedan tener experiencias seguras, positivas y atractivas.

En todo el mundo, nuestro equipo continúa trabajando en estrecha colaboración con socios clave de la industria para colaborar en nuestro enfoque de seguridad, incluida una mayor educación y la mejora de nuestras medidas de seguridad para superar los estándares:

Juntos creamos una comunidad donde todos pueden divertirse. Cada persona, ya sea un jugador nuevo o un profesional experimentado, juega un papel en la construcción de una comunidad más positiva y acogedora para todos. Los comentarios y los informes de los jugadores nos ayudan a mejorar nuestras funciones de seguridad. Si ve algo inapropiado, repórtelo, ¡no podríamos hacerlo sin usted!

Algunos recursos adicionales: