Passer au contenu

[Modération] Facebook, Twitter et YouTube trop laxistes ?

Dans une étude publiée jeudi, plusieurs associations dénoncent la lenteur des principaux réseaux sociaux à modérer les contenus violents ou à caractère raciste de leur plateforme….

Dans une étude publiée jeudi, plusieurs associations dénoncent la lenteur des principaux réseaux sociaux à modérer les contenus violents ou à caractère raciste de leur plateforme.

modération_violence_réseaux_sociaux
Black Mirror

SOS Racisme, SOS Homophobie et l’Union des étudiants juifs de France (UEJF) tapent du poing sur la table et dénoncent « l’inefficacité des systèmes de modération des contenus haineux » sur Facebook, Twitter ou YouTube.

Pour tirer les conclusions de leur étude publiée jeudi, ces associations ont signalé, pendant deux semaines (du 31 mars au 10 mai 2016), 586 contenus à caractère antisémite, raciste, négationniste ou homophobe aux diverses plateformes, pour des résultats plus que contrastés.

Ainsi, sur les 225 contenus haineux signalés à la filiale de Google, YouTube, seuls 7 % (16) des contenus ont été supprimés, Facebook a quant à lui supprimé 34 % des 156 contenus signalés et Twitter seulement 4 % sur 205 contenus incriminés. Ce qui désigne Twitter comme « l’acteur s’étant le moins conformé à ses obligations légales et à ses propres conditions générales d’utilisation » selon le communiqué publié par les trois associations.

De passage à Paris pour l’inauguration des nouveaux bureaux de Twitter, son CEO, Jack Dorsey, a reporté la responsabilité du contrôle des contenus litigieux sur les membres du réseau.

Interrogé par nos confrères du Figaro concernant les critiques formulées à l’encontre de la modération effectuée sur la plateforme, Dorsey assure dans un premier temps croire « en la liberté d’expression tout comme au fait de pouvoir se sentir en sécurité sur Twitter ».

S’il ne nie pas que « le problème du harcèlement ou de la violence en ligne est un enjeu global à Interne », il estime que la plateforme se différencie par son côté « public ». « Tout le monde peut voir les tweets. Cela signifie aussi que tout le monde peut très facilement signaler les contenus problématiques. Mais nous savons que nous devons encore nous améliorer à ce sujet ». Assurant faire de la sécurité « l’une des cinq priorités de Twitter cette année ». Dans quel ordre d’importance ?

modération_réseaux_sociaux

Si tous s’accordent à lutter contre la violence sur leur plateforme, quelle que soit la forme qu’elle prend : harcèlement en ligne, troll, propos à caractère raciste, haineux, sexistes, antisémite ou homophobes, vidéo d’exécution, etc., force est de constater qu’elle pullule sur les réseaux sociaux. La faute à un contrôle effectué a posteriori à partir des signalements effectués par les membres eux-mêmes. À charge pour les différentes plateformes d’analyser les contenus signalés et de déterminer s’ils enfreignent effectivement les règles du réseau social.

Facebook a souvent été plus prompt à censurer de la nudité, comme le tableau L’Origine du monde de Gustave Courbet ou parfois simplement des mamelons (générant le mouvement Free nipples), que des vidéos d’exécution ou les propos à caractère raciste.

« Il semble que ces plateformes préfèrent censurer des photos de seins plutôt que des appels aux meurtres contre des homos, des Arabes ou des juifs. Qu’elles s’expliquent donc sur ce choix-là », tance ainsi Dominique Sopo, le président de SOS Racisme.

L’effort a redoublé depuis les attentats de Paris de janvier et novembre 2015. Lors de sa venue à Washington pour le premier sommet de lutte contre le terrorisme, le ministre de l’Intérieur, Bernard Cazeneuve avait rencontré plusieurs géants du web, dont Facebook, Google, Microsoft et Twitter afin de leur leur proposer un « vrai deal », à savoir une pleine collaboration avec les autorités afin d’aboutir à une « une meilleure coordination dans la lutte contre la propagande et le recrutement terroristes sur Internet ».

Avant son limogeage, Dick Costolo avait fait de la lutte contre le harcèlement en ligne et les trolls une priorité de son mandat, regrettant d’avoir « échoué à faire face aux abus et aux trolls sur la plateforme » et ce, « depuis des années ».
Une liste noire de personnes bloquées à se partager avait ensuite été proposée pour tenter de juguler le fléau. De même, Twitter avait testé un filtre anti-harcèlement après avoir admis que la plateforme n’avait « pas traité efficacement ce problème ». Zelda Williams avait ainsi quitté la plateforme peu de temps après la mort de son père, l’acteur Robin Williams, face aux propos injurieux qu’elle avait reçu.

L’intégralité de l’étude « sera révélée en détail et analysée le dimanche 15 mai heures lors de la seconde édition des assises de la lutte contre la haine sur internet».

« Il est indispensable que les réseaux sociaux prennent enfin leurs responsabilités et investissent le temps et les moyens nécessaires pour casser cette dynamique », conclut Sacha Reingewirtz, président de l’UEJF.

🟣 Pour ne manquer aucune news sur le Journal du Geek, abonnez-vous sur Google Actualités. Et si vous nous adorez, on a une newsletter tous les matins.

4 commentaires
  1. trop laxistes, ça dépend dans quel sens : il y a eu un article sur Gizmodo citant les révélations d’anciens employés chez Facebook :
    Selon eux des employés de Facebook suppriment régulièrement de la Une du fil d’actualité des articles qui intéressent les lecteurs de droite ou qui ne sont pas assez à gauche.
    Plusieurs anciens « commissaires de l’information » de Facebook – c’est le nom qui leur est donné en interne – ont confirmé à Gizmodo qu’ils recevaient l’ordre d’injecter artificiellement des sujets choisis dans le module de La Une du fil d’actualité, même si ces sujets n’étaient pas assez populaires pour mériter d’y figurer — voire même, dans certains cas, n’étaient pas populaires du tout.
    Ces « commissaires éditoriaux » ont accès aux sujets les plus en vogue et les plus discutés présentés par l’algorithme de Facebook. Ils sont ensuite chargés d’écrire un titre, une intro et un résumé sur chaque sujet, ainsi que le lien vers l’article original. Cette partie éditoriale, lancée en 2014, est une des plus populaires de Facebook.
    “Selon qui est de service, certains sujets sont mis sur une liste noire ou poussés en avant,”
    “On avait un parti pris total. Nous faisions tout de façon subjective. Tout dépendait de quel commissaire était sur place à une certaine heure de la journée,” témoigne l’ex employé. “De temps en temps, un média conservateur ou Républicain avait le droit ce que son sujet soit vu par les utilisateurs. Mais nous devions aller chercher la même histoire vu sous l’angle d’un média plus neutre” – ce qui n’était jamais le cas pour les sujets des médias de gauche.
    Le même commissaire a révélé que le mouvement radical et raciste anti-blanc Black Lives Matter a été injecté de force dans le module des sujets chauds de Facebook.
    “Facebook a reçu d’énormes pressions du fait que Black Lives Matter n’était pas un sujet qui buzzait. Ils ont compris que ça représentait un danger, et ils l’ont poussé en avant à la main. Ils lui ont donné la préférence sur d’autres sujets. L’injection de ce sujet est particulièrement intéressant parce que mouvement #BlackLivesMatter est partie de Facebook, et les médias qui ont couvert leurs manifestations ont souvent mentionné leur forte présence sur Facebook »– ce qui n’était pas vrai, puisque fabriqué alors par Facebook. De là à parler de manipulation.

    1. Les américains, et les republicains en particulier, sont les portes étendarts du libaralisme à l’extreme, et ça les chagrine de voir qu’une société privée, qui fait donc de qu’elle veux en terme d’édition, fasse de l’orientation politique (encore faut il le prouver!) pour que l’extreme droite ne soit pas au pouvoir dans ce pays?
      Que les républicains commencent à balayer devant leur porte, genre en empéchant des membres de tenir des propos racistes, homophobes, xenophobes, islamo/judéo/phobe, de défiler pour des idées moyenageuses etc etc

      sinon, qu’ils aillent faire un tour sur les commentaires de post sur yahoo, et on en reparle de laxisme s’ils veulent.
      99% sont des propos racistes.

    2. Faut arrêter de raconter n’importe quoi. On dirait un vieil hoax qui circule sur les réseaux sociaux. Tout est pourri dans ton texte : ta source unique vient d’un site d’extrême droite (http://www.debunkersdehoax.org/oui-dreuz-est-bien-d-extreme-droite-et-on-vous-le-prouve).
      Je tiens juste à préciser les choses et à corriger ces aberrations que tu nous sors ; on a encore un vrai complotiste illuminé. Et toujours dans la continuité, tout est naze dans ton texte : cette histoire de commissaires (non pas de nom en interne) jusqu’au fait que BlackLivesMatter est présenté comme un mouvement raciste anti-blanc. Jamais de la vie, ils n’ont jamais revendiqué ça, jamais et jamais.
      Et ça, on ne peut pas modérer ce genre de texte ? Parce que c’est plutôt gratiné et c’est nauséabond.

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *