Intel a une IA qui permet de contrôler le niveau de haine dans votre chat de jeu

Lors de la Game Developers Conference, Intel a présenté Bleep, un outil permettant de personnaliser les discours discriminatoires que l'on souhaite voir en jeu, et à quel degré.

Crédits : Slejven Djurakovic via Unsplash

Intel, le fabricant de micro-processeurs et de semi-conducteurs, a développé une nouvelle IA capable de contrôler les discours haineux que vous voulez voir ou non dans le chat de votre jeu. Bleep, de son petit nom, liste toutes les formes possibles de discours haineux, du racisme à la misogynie en passant par le langage explicitement sexuel, ou encore la haine envers les membres de la communauté LGBTQI+. L’utilisateur a ensuite la possibilité d’activer ou de désactiver l’apparition de ces discours dans le chat de son jeu, avec tout de même un degré de tolérance. En effet, vous pouvez bloquer toutes les insultes, ou ne pas les bloquer du tout, comme vous pouvez en bloquer une petite ou une grande partie. En quelques mots, il s’agit d’une censure personnalisée possible grâce à l’IA. Dans la vidéo de présentation d’Intel, on peut voir un court passage explicatif avec l’interface utilisateur de Bleep en action.

Censure innovante ou maladresse “dystopique” ?

Cet outil a été présenté par Intel lors de la Game Developers Conference qui a eu lieu ce 8 avril. Depuis son annonce, Intel fait face à une vague de critiques concernant le principe même de l’outil. En effet, au lieu de trouver des solutions pour endiguer toutes les discriminations qu’il peut y avoir en ligne ou dans les chats de jeux vidéo, Intel se concentre sur une option pour personnaliser son expérience en ligne tout en ne faisant rien pour empêcher les discours de haine. Il suffirait pourtant d’utiliser cette IA, qui sait reconnaître n’importe quel discours haineux, afin d’empêcher les joueurs écrivant ces mots de les poster.

Alors que certaines entreprises du monde vidéoludique, comme Twitch, font de plus en plus d’efforts pour éradiquer toute forme de haine discriminatoire de leurs plateformes ou de leurs jeux, Intel opte pour une stratégie qui vise à fermer les yeux sur les fauteurs de troubles. Alors que l’intention y est, beaucoup jugent cette méthode comme étant “dystopique”, à l’instar de toutes les séries catastrophes dans lesquelles les fautes sont ignorées et la réalité est censurée. Bleep n’est cependant pas dénué d’utilité puisqu’il peut, par exemple, servir aux parents qui ne souhaitent pas que leurs enfants soient confrontés aux durs discours auxquels on peut faire face quotidiennement. Mais dans ce cas, on peut se le demander, pourquoi en censurer certains et pas d’autres ?