Un outil de détection de toxicité dans les jeux vidéo pourrait devenir plus inclusif

MONTRÉAL — Les entreprises de jeux vidéo Ubisoft et Riot Games travaillent avec une étudiante en linguistique de l’Université du Québec à Montréal (UQAM) afin de rendre leur outil de détection de toxicité en ligne plus inclusif et plus efficace. 

Les deux développeurs de jeux vidéo ont annoncé leur collaboration il y a environ un an dans l’objectif de réduire le harcèlement dans leurs jeux. Plus précisément, leur outil basé sur l’intelligence artificielle (IA) a pour but de détecter les comportements néfastes des joueurs. 

L’étudiante Josiane Van Dorpe consacre son projet de maîtrise en linguistique à l’amélioration de cet outil de détection. Antoine Leduc-Labelle, porte-parole d’Ubisoft, a indiqué que des résultats de l’étude et l’implantation possible de l’outil amélioré étaient prévus d’ici la fin de l’année. «C’est un projet de longue haleine», dit-il.

Riot Games a développé le jeu «League of Legends» dans lequel il y a «énormément de toxicité», explique M. Leduc-Labelle, et Ubisoft voit aussi ce fléau dans son jeu «Rainbow Six Siege», ce qui a motivé l’association entre les deux développeurs de jeux vidéo.  

L’intelligence artificielle existe déjà pour repérer la toxicité dans les jeux en ligne, mais il s’agit plutôt d’un modèle d’avertissement. 

Dans un délai assez court, après un ou deux avertissements, le joueur fautif est banni du jeu pendant un certain nombre de jours. Si d’autres avertissements surviennent, le joueur est banni pour toujours. 

«Il y a une tolérance très mince pour la toxicité», affirme M. Leduc-Labelle. 

Mais l’outil de détection n’est pas encore intégré à ce type de modération. Mme Van Dorpe s’affaire donc à perfectionner le programme basé sur l’IA. 

«Les gens qui jouent à des jeux vidéo, ils y vont pour se faire plaisir, ça leur apporte de la joie, ils veulent relaxer aussi, se connecter et se rassembler, jouer avec des gens d’un peu partout et leurs amis. Donc de se connecter à un jeu vidéo en ligne et d’expérimenter de la toxicité, ce n’est jamais vraiment souhaitable. On veut créer un environnement sécuritaire et plus inclusif pour tout le monde», explique Mme Van Dorpe.  

Elle a fait savoir que plus de gens jouent à des jeux vidéo, la pandémie ayant été particulièrement bénéfique pour l’industrie. En contrepartie, plus de joueurs amènent plus de comportements reprochables. 

Selon l’organisation Fair Play Alliance, en 2020, plus de 80 % des joueurs adultes ont vécu des préjudices ou du harcèlement dans les jeux en ligne. 

Tous les jeux ne sont pas touchés par l’intimidation. «La toxicité est surtout dans les jeux où il y a de la coopération — des jeux multijoueurs où il y a des discussions avec (clavardage) par exemple», mentionne M. Leduc-Labelle. 

Repérer les biais pour les supprimer 

Josiane Van Dorpe précise que l’intelligence artificielle utilisée dans l’outil d’Ubisoft et de Riot Games est un modèle de langue.

«On peut se servir d’un modèle de langue pour plein de tâches comme de la traduction automatique (…) ou comme ChatGPT pour faire de la génération de texte par un (robot conversationnel)», décrit-elle. 

Pour fonctionner, un modèle de langue doit analyser une énorme quantité de données. Elles proviennent habituellement du Web, par exemple d’articles de Wikipédia, des forums comme Reddit, des articles scientifiques de journaux, énumère Mme Van Dorpe. 

«Prendre plein de données comme cela, on s’entend que ce n’est pas neutre et ça ne veut pas dire qu’on va avoir des données de qualité. Certaines opinions et certains points de vue sont surreprésentés dans les données. Le modèle apprend ces choses-là, et une fois qu’on lui demande de faire une tâche, il peut y avoir des biais qui sont humains et qui étaient dans les données», détaille l’étudiante à la maîtrise en linguistique. 

Dans le cas de la toxicité en ligne, elle donne l’exemple du terme «femme», qui peut être utilisé pour affirmer son identité. 

«Le terme “’women” (femme) serait considéré toxique juste parce qu’en général dans les données de jeux vidéo ou dans les données en général “’women’’ va être utilisé de façon toxique et donc il réagit plus facilement», explique Mme Van Dorpe. 

À travers sa recherche, elle repère les biais et tente de retracer leur source, comprendre pourquoi le modèle réagit si fortement à un terme ou à un autre et propose des façons d’enlever ces biais. 

Selon M. Leduc-Labelle, des associations que celle de Riot Games et Ubisoft risquent d’être de plus en plus courantes. 

«Parce que l’industrie n’a absolument rien à gagner — pour ses joueurs et pour les programmeurs qui font les jeux et qui ne sont pas inspirés pas cette toxicité, fait-il valoir. On espère arriver à des solutions toujours de plus en plus concrète et de plus en plus efficace pour venir à bout de la toxicité en ligne parce qu’au final personne n’est gagnant là-dedans.»