Passer au contenu

[Trending Topics] Le robot Facebook remplace les éditeurs et… c’est le drame

Jusqu’à présent, les Trending Topic, disponibles uniquement sur la version américaine de Facebook, étaient gérés par une équipe éditoriale. Vendredi dernier, la firme s’est séparée de…

Jusqu’à présent, les Trending Topic, disponibles uniquement sur la version américaine de Facebook, étaient gérés par une équipe éditoriale. Vendredi dernier, la firme s’est séparée de son équipe pour la remplacer par un robot algorithmique. Mal lui en a pris : quelques jours plus tard, il faisait déjà remonter une fausse news.

trending_topic_facebook_robot_algorithme_hoax

Facebook aime les robots. Outre l’application de messagerie Messenger qui permet désormais de dialoguer avec des bots, Mark Zuckerberg dispose même de sa propre intelligence artificielle domestique et devrait la présenter le mois prochain.

Ils sont partout, si bien qu’ils laissent craindre, à terme, un remplacement de l’homme par son équivalent robotisé et/ou muni d’une intelligence artificielle. Une perspective qui effraie aussi bien le physicien Stephen Hawking que l’industriel Elon Musk.

Des robots déjà présents en nombre dans les médias

Plusieurs médias ont d’ores et déjà tenté l’aventure, de l’agence de presse AP en 2014 pour couvrir l’actualité financière et sportive, en passant par le journal Le Monde, dont le robot a déjà rédigé quelques 36 000 articles en marge du 1er tour des dernières élections départementales, et jusqu’à récemment avec le Washington Post qui a dépêché un robot pour couvrir les derniers JO de Rio.

Du côté du réseau social, Facebook a récemment viré son équipe éditoriale (18 personnes) en charge des Trending topics (les actus tendance de la journée, uniquement disponibles aux États-Unis), pour la remplacer par un algorithme censé faire de même, voire mieux.

megyn,-kelly-trending-topics-hoax

Une équipe éditoriale partisane ?

La gestion des Trending Topics est un sujet délicat depuis que Gizmodo a révélé en mai dernier que Facebook manipulait les résultats de TT au détriment du contenu conservateur. En pleine campagne pour l’investiture en vue des prochaines présidentielles américaines, l’information faisait tache. Être soupçonné de partialité n’est jamais bon pour les affaires.

Censément identifiés et remontés par un algorithme maison, les TT étaient en fait éditorialisés et hiérarchisés par une équipe de journalistes employés par Menlo Park.

« Nous effectuons ces changements plus tôt compte tenu des commentaires reçus de la communauté Facebook plus tôt cette année », a expliqué la compagnie. Les sujets mis en avant seront toujours personnalisés, mais leur sélection se fera par un algorithme

« La liste est personnalisée en fonction de plusieurs critères comme sa localisation, les pages que vous aimez et les sujets populaires sur Facebook », précise également la compagnie dans son communiqué.

Un algorithme pour éteindre la polémique de manipulation des TT

Beaucoup y voient surtout un acte de contrition de la part de la plateforme, désireuse de clore le chapitre Gizmodo. Même si les deux anciens employés de Facebook à l’origine des révélations sont quelque peu revenus sur leurs accusations (pas tout à fait vraies), Facebook a préféré éteindre toute nouvelle polémique et s’est donc séparé de cette équipe faillible pour la remplacer par un véritable algorithme.

Tout est bien qui finit bien ? Non, le Washington Post révèle ainsi que trois jours seulement après son entrée en poste l’algorithme a commis sa première bourde.

Un robot pas si infaillible

Dimanche 28 août, une information trônait en tête des TT : publié sur le site libertaire pro-Trump EndingTheFed.com, l’article titrait : « BREAKING NEWS : Fox News démasque la traître Megyn Kelly (l’une des stars de la chaîne, NDLR) et la vire pour son soutien à Hillary Clinton ». Oui, mais. Cet article à sensation avait ceci de sensationnel qu’il était tout simplement faux : sans fondement, ni aucune preuve et de fait, la présentatrice n’a pas été remerciée.

Fake_news_TT_Facebook_WP
capture d’écran

Le hoax est resté en haut des TT pendant plusieurs heures jusqu’à ce que Facebook le supprime dans la matinée de lundi (9h30). Comment cela-t-il pu se produire ?

Le hoax provenait de sources qui semblaient tout à fait sérieuses. Ce site reprenait lui-même un article publié par le site (très subjectif) Conservative101, mais qui basait son propos sur un article paru dans Vanity Fair.

Des enjeux importants

Facebook est une importante source d’information pour près de la moitié de la population adulte aux Etats-Unis et pour des dizaines de millions de personnes à travers le monde, rappelle The Verge. Faire de la désinformation est une tactique éprouvée des machines politiques partisanes, mais les réseaux sociaux leur donne une caisse de résonance phénoménale et un outil aussi simple que viral.

La plateforme serait en train de travailler à une mise à jour de son algorithme afin de lui permettre de mieux identifier les hoax et autres articles satiriques, a indiqué un porte-parole de la firme.

Si l’erreur est humaine, elle semble également être algorithmique. Une bonne nouvelle pour l’humanité ?

🟣 Pour ne manquer aucune news sur le Journal du Geek, abonnez-vous sur Google Actualités. Et si vous nous adorez, on a une newsletter tous les matins.

2 commentaires
  1. Bien sûr qu’un algorithme complexe contient des erreurs. Simplement ce n’est pas le même genre d’erreur que celles que ferait un humain. Préférer utiliser un algorithme pour son coté “infaillible” est, en soi, une erreur très humaine 🙂

  2. Omagad la moitié des “adultes” américains “s’informent” sur facebook oO C’est totalement effrayant…

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *