Passer au contenu

Cyberharcèlement : Twitch va utiliser l’IA pour détecter la haine en ligne

La plateforme continue de multiplier les outils pour venir à bout des haters, et notamment des raids haineux qui se font de plus en plus fréquents.

Mardi, la plateforme Twitch a annoncé la mise en place d’un nouvel outil autonome destiné à combattre la prolifération de messages malveillants. Particulièrement sujet aux hate raids depuis quelques mois — notamment pour ses streameurs et streameuses issus de minorités — l’entreprise appartenant à Amazon veut désormais faire appel au machine learning et à l’intelligence artificielle pour venir à bout des trolls.

Dans un message posté sur Twitter, la firme explique ainsi, sans le détailler, le fonctionnement de son nouveau système de détection antitrolls : grâce au machine learning, Twitch sera désormais en mesure de savoir quand un utilisateur crée un nouveau compte anonyme pour retourner commenter les chaînes qui les ont bannis. La plateforme espère ainsi être en mesure d’interdire le retour des haters avant même qu’ils n’agissent.

Il faut dire que le phénomène de cyberharcèlement, et plus particulièrement de hate raids est particulièrement présent sur la plateforme. Au point que Twitch peine à endiguer le problème, et que certains streameurs ont lancé il y a quelques mois un appel au boycott alors baptisé A day off Twitch, pour alerter sur leurs revendications.

Bannir avant qu’ils agissent

Baptisé Suspicious User Detection, ce nouvel outil pensé par Twitch n’empêchera pas les utilisateurs malveillants de suivre le live d’un streameur, mais seulement d’accéder au chat pour interagir en direct avec la communauté. Pensé pour aider les créateurs “à identifier ces utilisateurs en fonction de certains signaux” afin de pouvoir “prendre des mesures” plus facilement explique la plateforme, le programme pourra notamment détecter les fraudeurs “probables” des haters “potentiels”. Dans le premier cas, les messages provenant du compte en question seront automatiquement masqués. Il incombera ensuite aux streameurs ou aux modérateurs de choisir comment agir. 

Avec plus de 30 millions de visiteurs par jour, Twitch sait que le chemin est encore long (pour ne pas dire impossible) avant d’arriver à créer un espace entièrement sécurisé pour ses utilisateurs. “Aucun système de machine learning n’est fiable à 100 %” a d’ailleurs reconnu l’entreprise, qui estime que “c’est pour cela que Suspicious User Detection n’interdit pas automatiquement tous les potentiels fraudeurs”. 

 

🟣 Pour ne manquer aucune news sur le Journal du Geek, abonnez-vous sur Google Actualités. Et si vous nous adorez, on a une newsletter tous les matins.

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Mode