Aunque estemos inmersos en las enésimas guerras de consolas, como evidencia el feudo entre Sony y Microsoft por la compra de Activision-Blizzard por parte de estos últimos, lo cierto es que los estudios de videojuegos suelen colaborar bastante. Hay que entender que los trabajadores suelen ir cambiando de empresa tras cada proyecto, y que muchos de estos estudios comparten motores gráficos o assets de desarrollo.
Sin embargo, hay ocasiones en las que las colaboraciones van aún más allá de cuestiones relacionadas con videojuegos en concreto. Un ejemplo de esto es Zero Harms in Comms, una iniciativa creada por Riot Games y Ubisoft. Los desarrolladores de League of Legends y Assassin's Creed, entre otros, llevarán a cabo un esfuerzo conjunto a la hora de crear una inteligencia artificial que limite los insultos y la toxicidad en sus videojuegos.
En MGG España hemos podido hacerle unas preguntas a Wesley Kerr, director de investigación tecnológica en Riot Games, así como a Yves Jacquier, director ejecutivo de Ubisoft La Forge. Gracias a sus respuestas hemos podido saber más sobre uno de los proyectos que, sin cambiar la jugabilidad de sus títulos, más pueden hacer por los usuarios.
¿Por qué Riot y Ubisoft?
La primera pregunta era obligada. Grandes compañías dentro del mundo del videojuego hay muchas, pero que una afincada en Francia y Canadá se una con otra procedente de California, es extraño incluso en este momento en el que las telecomunicaciones permiten este tipo de interacciones. Y, como es razonable, todo arrancó con conversaciones entre los dos protagonistas de nuestra entrevista.
Allá por primavera de este mismo año 2022, Yves y Wesley tuvieron algunas charlas sobre cómo detectan cada una de sus empresas las conductas tóxicas en juegos online. Debatiendo sobre lo complejo que es este proceso, ambos llegaron a la misma conclusión: para desarrollar una IA eficiente para esta tarea, tendrían que unirse.
Hay que decir que ambas empresas son parte de la Fair Play Alliance, una iniciativa que aúna a un montón de estudios de desarrollo que buscan acabar con la lacra del abuso verbal en videojuegos. Sería justo decir que ese caldo de cultivo, del que son parte tanto Riot como Ubisoft, fue el verdadero inicio de un proyecto que abrió sus puertas el pasado mes de julio.
Según cuenta Kerr, Ubisoft era un socio evidente para Riot Games. La razón es que posee una base de jugadores lo suficientemente diversa y diferente a la de los creadores de LoL y Valorant, que enriquece sobremanera a la inteligencia artificial. De igual forma, Kerr afirma que ambas compañías valoran de forma similar asuntos como la privacidad de los datos de los jugadores, un factor clave a la hora de realizar esta asociación.
Una potente herramienta adicional
Aunque no tengamos formación en Big Data, inteligencias artificiales y demás cuestiones técnicas, lo cierto es que podemos entender a la perfección qué buscan Riot y Ubisoft con Zero Harms in Comms. Es un proyecto que está intentando adiestrar a una IA con un montón de mensajes tóxicos, para posteriormente proceder a detectarlos en partidas en directo.
La cuestión es entonces qué va a suceder con esos usuarios que han abusado verbalmente de otros. Jacquier me cuenta que el proyecto es un avance, pero que no todo el trabajo está hecho: "Podemos ver este proyecto como una herramienta más en una caja de herramientas. Lo más importante para Riot y para Ubisoft es la seguridad de los jugadores, así como proporcionar una experiencia positiva. Eso es en lo que nos centramos en esta iniciativa: crear mejores herramientas de detección, fiables y rápidas. No creemos que haya una única solución."
Sobre esas otras herramientas, algunas que ya existen, nos habla Kerr. Comenta que League of Legends, por ejemplo, dispone de un sistema de recompensas por buena conducta llamado Honor. Sin embargo, el papel de esta iniciativa en concreto es detectar especialmente conductas que no son fáciles de identificar. Los jugadores tóxicos idean cada vez más maneras de humillar a sus compañeros y rivales que pueden pasar por filtros simples de insultos.
El secreto está en las blueprints
Una pequeña curiosidad que tenía a la hora de hablar de este proyecto es la cantidad de información que la IA es "capaz de tragar", es decir, que volumen de mensajes están gestionando estos dos estudios Zero Harms in Comms. Jacquier me lleva a otro punto y nos cuenta que llega un punto que el número de mensajes ya no es una variable que merezca la pena ampliar.
Sin embargo, sí que es mucho más interesante darle a la inteligencia artificial una gran variedad de mensajes, lo que llama blueprints (algo así como "huellas" en castellano). Este paso es muy complejo, porque si no se definen correctamente estos tipos de mensajes, el proyecto puede fracasar. Pero quizás más importante, es necesario definirlos sin dar datos concretos de mensajes, para que se cumplan los más rigurosos controles de confidencialidad.
Ni que decir tiene que estos mensajes van a ser escritos, pero sí que he querido preguntar sobre el posible futuro de aplicaciones de este tipo a chats de voz como los de Valorant. Kerr afirma que lo que aprendan con los mensajes de texto, seguramente pueda ser aplicable a chats de voz, pero que el proyecto se limita a los del primer tipo.
Jacquier nos trae un ejemplo de Rainbow Six, el shooter competitivo de Ubisoft. Cuenta que no sólo la gramática y las palabras usadas son importantes a la hora de establecer que un mensaje es abusivo, si no que hay que tener en cuenta el contexto. Decir a un rival que "vas a acabar con él", puede ser parte de la fantasía que ofrece el juego y tener cabida dentro del mundo creado.
El videojuego como punta de lanza
No saben qué deparará el futuro, y no quieren aventurarse a si más compañías se unirán a la iniciativa, pero sí que nos cuentan que eso es algo con lo que fantaseaban cuando empezaron con ella. Hay problemas como el asunto de compartir información entre empresas sin violar los acuerdos de protección de datos que se adquieren con los jugadores, pero la llegada de nuevas compañías podría ser interesante para los creadores.
Y quizás lo más relevante, al menos para servidor, es cómo pueden ser usadas herramientas con estos algoritmos de última generación en cuestiones más allá de los videojuegos... Como redes sociales, por ejemplo. Aunque no quieren mojarse, porque su área de conocimiento son los videojuegos, sí que nos reconocen algo particularmente interesante: varias de las ideas adoptadas en este proyecto nacen de los recientes estudios sobre toxicidad en redes sociales.
De hecho, creen que es más fácil realizar esta tarea de filtración en los videojuegos. En redes sociales es muy difícil establecer el contexto detrás de un mensaje. En los videojuegos, tienes una partida y los jugadores reaccionan a lo que acaba de suceder. Por ello, aunque es una tarea titánica, tiene asideros a los que Riot y Ubisoft se están agarrando para mejorar nuestras partidas.