Passer au contenu

Fake news : YouTube a supprimé plus d’un million de vidéos sur le covid-19

La plateforme vidéo a déjà annoncé avoir supprimé plus d’un million de vidéos de désinformation autour du covid-19, et les choses pourraient encore s’amplifier dans les prochains mois.

Mercredi, YouTube a durci le ton concernant sa politique de lutte contre les fake news. Déjà engagée — parfois sans grand succès — sur cet épineux sujet, la plateforme de Google a indiqué avoir supprimé plus d’un million de vidéos susceptibles de partager des informations erronées ou délibérément trompeuses sur la pandémie de covid-19.

Faire le tri entre les sources

Pour justifier sa modération drastique, YouTube s’est d’abord défendu en indiquant qu’il mettait d’abord la priorité sur les contenus provenant de sources légitimes et fiables, l’OMS (Organisation mondiale de la santé) en tête de liste. “Nous retirons près de 10 millions de vidéos par trimestre, dont la majorité n’atteint même pas les dix vues”, a ainsi déclaré Neal Mohan, directeur produit de la plateforme dans un communiqué officiel. Un grand nettoyage qui ne suffirait pourtant pas à endiguer la prolifération de fausses informations sur les réseaux sociaux. “En tout, entre 0.16% et 0.18% des visionnages concernent des contenus qui enfreignent nos règles”, estime ainsi Neal Mohan. Si ce pourcentage peut sembler dérisoire, il l’est en effet beaucoup moins lorsqu’il est rapporté à la réalité : avec un milliard d’heures de vidéos visionnées chaque jour dans le monde, ce type de contenu représente ainsi 180 millions d’heures de désinformation potentielle.

La responsabilité des réseaux sociaux

YouTube n’est évidemment pas le seul à s’impliquer dans la lutte contre les fake news. Comme la plateforme de Google, Facebook et Twitter aussi misent sur des stratégies similaires pour éradiquer les contenus problématiques, au point de régulièrement se retrouver dans le collimateur de la justice. Il faut dire que la responsabilité des réseaux sociaux dans la pandémie du covid-19 a atteint des proportions sans précédent. En juillet dernier, le président américain Joe Biden estimait même que Facebook et ses confrères “tuaient” des gens en fermant les yeux sur la prolifération de fausses rumeurs sur la vaccination. De son côté, YouTube a répondu à ce type d’accusations par le biais d’un récent communiqué, en affirmant qu’il n’était pas question de laisser des “contenus provocants parce que nous en bénéficions financièrement”. “Non seulement ce type de contenus ne réalise pas de bonnes performances sur YouTube — surtout par comparaison avec la musique ou l’humour — mais ils érodent la confiance du public et des annonceurs”, a indiqué Neal Mohan.

🟣 Pour ne manquer aucune news sur le Journal du Geek, abonnez-vous sur Google Actualités. Et si vous nous adorez, on a une newsletter tous les matins.

2 commentaires
  1. Sans parler du sujet de fond (le vaccin), mais en généralisant, c’est quand même très grave de laisser le moyen a certaines entités de décider ce qui est diffusable et ce qui l’est pas.
    On parle pas de pornographie, violences ou autres là, on parle d’informations, justes ou non.
    Il suffit que les outils tombent (ou soit déjà) dans le mains de personnes mal intentionnées (ce qui n’est bien sur pas le cas dans une société capitaliste comme la notre) pour réinformer, sous le prétexte de ne pas désinformer…
    Quand tu dois bloquer plutôt que d’éduquer, c’est que qqch va pas dans ta façon de faire.
    Il faut y faire très attention

  2. Les vidéo de Didier Raoult n’on pas été supprimées par Youtube.
    Le vaccin expérimentale est la solution finale grâce à la fraction magique bénéfices connues/risques inconnus (effets secondaires potentiels)
    1 dose tous les 6 mois, transmission égale aux non vaccinés, diminution des cas graves dont la majeure partie est soit agée et/ou en commorbidité.
    Quand les moutons deviennent des pigeons on dit merci qui ?

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Mode