Unos 20.000 usuarios han sido expulsados de Counter-Strike: Global Offensive en las últimas seis semanas. Esto se debe a la introducción de un sistema de inteligencia artificial para detectar comentarios ofensivos en el juego que se basa en el análisis de los mensajes que emplean en el sistema de chat textual del título.
Este sistema se llama Minerva y ha sido gestado por FACEIT, un grupo especializado en juego en línea que organizó importantes eventos en torno al juego y que ha colaborado con Google Cloud y otros servicios, como Jigsaw, una incubadora tecnológica de Google.
Minerva tuvo una fase de análisis preliminar en agosto, y desde entonces ha detectado rápidamente 7 millones de mensajes tóxicos, ha emitido 90.000 advertencias y ha impuesto 20.000 expulsiones a jugadores.
El sistema se centró inicialmente en las advertencias por mensajes tóxicos a usuarios oque abusaban del sistema acosando a otros jugadores. También empezó a detectar spam. Al detectar esos mensajes, valora cómo proceder, pues puede imponer expulsiones o mandar advertencias. El sistema valora si se trata de reincidentes para determinar el tipo de castigo en cada ocasión.
Los resultados son positivos: los mensajes tóxicos se han reducido un 20% en su volumen total, y un 8% de los usuarios que los enviaban han dejado de hacerlo.
Para conseguir estos resultados, se trabajó durante meses para que el sistema Minerva aprendiera a detectar correctamente los mensajes conflictivos y pudiera descartar los falsos positivos.
El objetivo ahora es conseguir que Minerva pueda ir más allá del chat para analizar más factores y conseguir un mejor control de los usuarios que se salten las normas.