Passer au contenu

Haine en ligne et jeu vidéo : Comment protéger sans sur-censurer ?

Le milieu du gaming – comme le reste d’Internet d’ailleurs, n’échappe pas à son lot de trolls et de haters.

À mesure que nous passons de plus en plus de temps en ligne, nos interactions à travers le prisme des plateformes virtuelles augmentent inévitablement, et avec elles, le risque de cyber-harcèlement. Si les réseaux sociaux sont souvent pointés du doigt comme les vecteurs de la haine en ligne, le milieu du jeu vidéo n’échappe pas à la règle. Décryptage avec Charles Cohen, fondateur de l’application et de la technologie Bodyguard.

La haine en ligne, c’est quoi ?

Les insultes et les menaces n’ont évidemment pas attendu l’avènement d’Internet pour apparaître. Il faut cependant bien l’admettre : les réseaux sociaux et autres plateformes en ligne ont largement contribué au phénomène du (cyber)harcèmement, sans doute accentué par l’effet de masse et le sentiment d’impunité qu’il procure. “Jusqu’en 2016, la haine en ligne se propageait de manière très textuelle”, analyse Charles Cohen, fondateur de l’application Bodyguard. De simples filtres à mots-clés suffisaient alors à protéger l’utilisateur des insultes et autres noms d’oiseaux préférés sur ses forums préférés.

C’était sous-estimer l’ingéniosité des internautes : “Les gens ont très vite compris que les insultes classiques ne passaient plus à cause de ces filtres. C’est à ce moment-là qu’on a vu une première évolution des contenus haineux, avec l’ajout d’astérisques, de fautes d’orthographe ou d’espace pour censurer un mot”. Depuis 2017, les évolutions technologiques s’enchaînent presque aussi vite que la capacité de l’être humain à troller : petit à petit, les emoji ont fini par remplacer certains mots, et l’utilisation d’images – notamment les mèmes, rend de plus en plus complexe la modération en ligne, qui peine à appréhender ces nouveaux usages.

“Le problème, explique Charles Cohen, c’est que c’est un jeu permanent du chat et de la souris entre les plateformes et certains internautes. Les entreprises comme Facebook ou Steam mettront toujours trop de temps à ajuster leurs outils de modération, notamment dans le milieu du jeu vidéo, ou les internautes ont très vite compris comment rendre obsolètes les technologies utilisées”.

Haine en ligne et jeu vidéo, les gamers sont-ils des trolls ?

Quand on pense cyber-harcèlement, on pense généralement aux réseaux sociaux, qui font chaque jour parler d’eux pour leur toxicité. S’il n’adhère pas aux mêmes codes, le jeu vidéo est lui aussi bien représenté lorsqu’il s’agit de haine en ligne. Selon une étude rendue publique en 2019 par l’ONG Anti-Defamation League, 74% des adultes auraient déjà été confrontés à des comportements haineux et violents sur un jeu en ligne. Plus de la moitié de ces cas de harcèlement auraient même conduit à des dérives plus graves, allant de la menace de mort au stalking.

Tandis que Facebook et Twitter vont ainsi concentrer leur toxicité sur les sujets d’actualité, avec des réactions parfois très frontales et très violentes, le gaming va plutôt être la cible des trolls, qui polluent l’espace de jeu par leur comportement. Pour autant, pas de solution miracle, rappelle Charles Cohen : “De manière générale, toute plateforme qui permet à des utilisateurs d’interagir entre eux va être exposée à des contenus haineux et à de la cyberviolence. Dans le gaming, on va retrouver beaucoup d’insultes, mais il faut être prudent lorsqu’on modère ce type de contenu. Si un joueur dit “je vais te tuer avec mon AK-47” dans un FPS, cela fait partie du jeu. Si c’est dit sur Twitter, ça devient une menace de mort”.

Le cas de Twitch

Avec l’arrivée de Twitch et du streaming en live, la haine en ligne a rapidement bénéficié d’un boulevard pour prospérer, permettant à certains internautes malveillants de communiquer en direct – et parfois en masse, avec leur victime potentielle. En marge des insultes, on retrouve aujourd’hui sur la plateforme de nombreux cas d’ascii art (les dessins réalisés à l’aide de ponctuation), mais aussi des pseudos au contenu problématique, qui tentent de contourner les outils de modération en jouant notamment sur la prononciation. “Pour éviter ce genre de problème, chez Bodyguard on utilise de la phonétique” détaille Charles Cohen. “Mais il faut avoir connaissance de ce genre de dérives, et surtout être capable de rapidement mettre à jour ses bases de données”.

Ascii art par des trolls de BFMTV
Crédits : BFMTV sur Twitch

La plateforme étant historiquement destinée aux gamers, certains ne se privent d’ailleurs pas pour troller massivement ceux qui voudraient se lancer hors des sentiers battus. Il y a quelques mois, lorsque la chaîne BFMTV se lance sur la plateforme, son premier live est pris d’assaut par les haters, qui s’en donnent à cœur joie pour déstabiliser la journaliste chargée d’animer le stream. Depuis peu, c’est avec la misogynie que doivent aussi composer les outils de modération en ligne. “C’est un nouveau type de haine en ligne très visible depuis un ou deux ans, car les streameuses sont de plus en plus nombreuses. On est en train de développer un outil pour contrer cet effet de tendance, parce qu’il a beaucoup augmenté en peu de temps”.

En ligne, la haine reste-t-elle toujours impunie ?

Insulter quelqu’un en ligne, via le prisme réconfortant de son ordinateur est une chose facile. Non seulement l’internaute se sent pousser des ailes derrière son écran – il y a en réalité peu de chances qu’il tienne les mêmes propos si sa “cible” était face à lui, mais il bénéficie aussi d’un sentiment d’impunité caractéristique de notre activité en ligne. Un sentiment biaisé, puisque sur Internet, nos moindres faits et gestes font l’objet d’une surveillance permanente. Ainsi, s’il vous prend l’idée d’insulter quelqu’un sur les réseaux sociaux, les autorités compétentes ne devraient avoir aucun mal à vous trouver, met en garde Charles Cohen : “Votre commentaire est relié à votre adresse IP. Donc, en cas de démarche juridique, on peut facilement arriver à récupérer votre adresse IP, votre fournisseur d’accès, votre adresse et donc votre identité”.

En théorie donc, les comportements inappropriés en ligne font l’objet des mêmes sanctions judiciaires que dans la vie réelle. En France par exemple, un message direct insultant pourra vous coûter une contravention de 38€, et jusqu’à 750€ en cas d’injure raciste, homophobe, sexiste ou validiste. Lorsqu’elle est publique, l’insulte devient un délit, et est passible de 12 000€ d’amende. En cas de circonstances aggravantes (xénophobie, harcèlement, etc), la peine encourue peut s’élever à 45 000€ et un an d’emprisonnement.

Si les sanctions existent, alors comment expliquer le sentiment d’impunité qui nous anime derrière un écran ? Selon Charles Cohen, plusieurs facteurs sont à prendre en compte. D’abord le fait que les démarches juridiques liées à la haine en ligne sont souvent longues et fastidieuses : “C’est très compliqué, beaucoup de victimes abandonnent et ne vont pas au bout, parce que ça coûte de l’argent et que c’est démoralisant”. Ensuite, la prolifération d’outils et de techniques destinés à invisibiliser son adresse IP, et donc son identité : “Quand la personne est techniquement bien renseignée, elle peut assez facilement passer à travers les mailles du filet, pour qu’on soit dans l’incapacité de la tracer”. En première ligne, l’utilisation de VPN à double ou triple rebond (un VPN dans un VPN en somme), qui complique particulièrement la tâche des autorités en cas d’enquête : “Le temps de faire les démarches nécessaires, les délais légaux de conservation des données sont passés. De plus, les plateformes concernées ne sont souvent pas très coopératives”.

Comment fonctionnent les technologies de modération comme Bodyguard ?

Pour se protéger de la haine en ligne, le plus simple reste encore de faire appel à un outil de modération. Créée en 2018, l’application Bodyguard permet ainsi de “reproduire les étapes d’une modération humaine”, explique son fondateur Charles Cohen : “L’idée quand on reçoit un commentaire, ça va être de le nettoyer pour comprendre son message. Ensuite, on va s’arrêter sur les mots problématiques, les insultes et les menaces par exemple. La troisième étape, ça va être d’analyser tout ça pour se demander à qui sont destinés ces mots. “Tu es un connard”, ce n’est pas la même chose que “On m’a traité de connard”, tout est une question de contexte”.

bodyguard visuel
© Bodyguard

Une fois que le message a été analysé, reste encore à déterminer ce que l’algorithme de modération va en faire. “L’idée, explique Charles Cohen, ça va être de s’adapter en fonction de la personne à protéger. On ne va pas avoir la même sévérité si on a affaire à une fillette de 10 ans sur TikTok ou à un gamer de 30 ans sur Twitch”. À noter que la fréquence des messages reçus joue aussi un rôle déterminant : “Plus l’utilisateur reçoit de contenu haineux, plus la modération va être stricte” détaille Charles Cohen. “Un “t’es nul” reçu une fois par mois va être laissé, mais un “t’es nul” reçu 500 fois par jour va être modéré”.

Comment éviter la sur-censure ?

Modérer, c’est bien. Mais à trop vouloir protéger les utilisateurs de la “vraie vie” numérique, ne risque-t-on pas de les enfermer dans un safe-space complètement déconnecté de la réalité ? “La sur-censure est aussi un vrai problème”, admet Charles Cohen. “C’est pour cette raison que par défaut, Bodyguard va retirer uniquement les contenus haineux destinés à l’utilisateur et à ses proches. Le reste sera laissé. On n’avait pas le droit à l’erreur sur ce sujet”. Dans tous les cas, on rappelle quand même que la modération la plus stricte ne permet pas de supprimer les messages haineux, mais simplement de les invisibiliser.

🟣 Pour ne manquer aucune news sur le Journal du Geek, abonnez-vous sur Google Actualités. Et si vous nous adorez, on a une newsletter tous les matins.

1 commentaire
Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *