[Modération] Facebook, Twitter et YouTube trop laxistes ?

Sur le web

Par Elodie le

Dans une étude publiée jeudi, plusieurs associations dénoncent la lenteur des principaux réseaux sociaux à modérer les contenus violents ou à caractère raciste de leur plateforme.

modération_violence_réseaux_sociaux
Black Mirror

SOS Racisme, SOS Homophobie et l’Union des étudiants juifs de France (UEJF) tapent du poing sur la table et dénoncent « l’inefficacité des systèmes de modération des contenus haineux » sur Facebook, Twitter ou YouTube.

Pour tirer les conclusions de leur étude publiée jeudi, ces associations ont signalé, pendant deux semaines (du 31 mars au 10 mai 2016), 586 contenus à caractère antisémite, raciste, négationniste ou homophobe aux diverses plateformes, pour des résultats plus que contrastés.

Ainsi, sur les 225 contenus haineux signalés à la filiale de Google, YouTube, seuls 7 % (16) des contenus ont été supprimés, Facebook a quant à lui supprimé 34 % des 156 contenus signalés et Twitter seulement 4 % sur 205 contenus incriminés. Ce qui désigne Twitter comme « l’acteur s’étant le moins conformé à ses obligations légales et à ses propres conditions générales d’utilisation » selon le communiqué publié par les trois associations.

De passage à Paris pour l’inauguration des nouveaux bureaux de Twitter, son CEO, Jack Dorsey, a reporté la responsabilité du contrôle des contenus litigieux sur les membres du réseau.

Interrogé par nos confrères du Figaro concernant les critiques formulées à l’encontre de la modération effectuée sur la plateforme, Dorsey assure dans un premier temps croire « en la liberté d’expression tout comme au fait de pouvoir se sentir en sécurité sur Twitter ».

S’il ne nie pas que « le problème du harcèlement ou de la violence en ligne est un enjeu global à Interne », il estime que la plateforme se différencie par son côté « public ». « Tout le monde peut voir les tweets. Cela signifie aussi que tout le monde peut très facilement signaler les contenus problématiques. Mais nous savons que nous devons encore nous améliorer à ce sujet ». Assurant faire de la sécurité « l’une des cinq priorités de Twitter cette année ». Dans quel ordre d’importance ?

modération_réseaux_sociaux

Si tous s’accordent à lutter contre la violence sur leur plateforme, quelle que soit la forme qu’elle prend : harcèlement en ligne, troll, propos à caractère raciste, haineux, sexistes, antisémite ou homophobes, vidéo d’exécution, etc., force est de constater qu’elle pullule sur les réseaux sociaux. La faute à un contrôle effectué a posteriori à partir des signalements effectués par les membres eux-mêmes. À charge pour les différentes plateformes d’analyser les contenus signalés et de déterminer s’ils enfreignent effectivement les règles du réseau social.

Facebook a souvent été plus prompt à censurer de la nudité, comme le tableau L’Origine du monde de Gustave Courbet ou parfois simplement des mamelons (générant le mouvement Free nipples), que des vidéos d’exécution ou les propos à caractère raciste.

« Il semble que ces plateformes préfèrent censurer des photos de seins plutôt que des appels aux meurtres contre des homos, des Arabes ou des juifs. Qu’elles s’expliquent donc sur ce choix-là », tance ainsi Dominique Sopo, le président de SOS Racisme.

L’effort a redoublé depuis les attentats de Paris de janvier et novembre 2015. Lors de sa venue à Washington pour le premier sommet de lutte contre le terrorisme, le ministre de l’Intérieur, Bernard Cazeneuve avait rencontré plusieurs géants du web, dont Facebook, Google, Microsoft et Twitter afin de leur leur proposer un « vrai deal », à savoir une pleine collaboration avec les autorités afin d’aboutir à une « une meilleure coordination dans la lutte contre la propagande et le recrutement terroristes sur Internet ».

Avant son limogeage, Dick Costolo avait fait de la lutte contre le harcèlement en ligne et les trolls une priorité de son mandat, regrettant d’avoir « échoué à faire face aux abus et aux trolls sur la plateforme » et ce, « depuis des années ».
Une liste noire de personnes bloquées à se partager avait ensuite été proposée pour tenter de juguler le fléau. De même, Twitter avait testé un filtre anti-harcèlement après avoir admis que la plateforme n’avait « pas traité efficacement ce problème ». Zelda Williams avait ainsi quitté la plateforme peu de temps après la mort de son père, l’acteur Robin Williams, face aux propos injurieux qu’elle avait reçu.

L’intégralité de l’étude « sera révélée en détail et analysée le dimanche 15 mai heures lors de la seconde édition des assises de la lutte contre la haine sur internet».

« Il est indispensable que les réseaux sociaux prennent enfin leurs responsabilités et investissent le temps et les moyens nécessaires pour casser cette dynamique », conclut Sacha Reingewirtz, président de l’UEJF.

Source: Source