Passer au contenu

TikTok : l’algorithme amplifie l’épidémie de désinformation sur son réseau social

Selon l’organisation Media Matters, le réseau social mettrait largement en avant les contenus complotistes dans la catégorie “pour toi”.

Le succès de TikTok est indéniable. Après seulement 5 ans d’existence, le réseau social s’est largement imposé dans le panorama des applications de divertissement. Addictive, elle vient d’ailleurs de devenir l’application la plus téléchargée dans le monde (3 milliards). Elle est particulièrement populaire chez les plus jeunes, puisqu’on estime que 40% des utilisateurs auraient entre 16 et 24 ans. Mais ce succès auprès des adolescents s’accompagne également de quelques polémiques. L’entreprise chinoise est fréquemment accusée de ne pas assez protéger ses jeunes utilisateurs. Elle a également été pointée du doigt à plusieurs reprises pour la désinformation qui pullule sur les fils d’actualité de ses utilisateurs.

L’association à but non-lucratif Media Matters for America s’est d’ailleurs penchée sur la question des recommandations sur la plateforme. Dans un article publié le 18 août, elle explique avoir mené quelques expériences pour déterminer comment l’algorithme mettait en avant certaines vidéos. On peut lire “alors que les directives de la communauté de TikTok interdisent explicitement la désinformation liée au COVID-19 et aux vaccins, les vidéos contenant de la désinformation médicale, des théories du complot dangereuses et mensonges sur le vaccin reçoivent régulièrement des millions de vues et sont diffusées par la plateforme dans les “pour toi”.

Pour tirer ces conclusions, Media Matters a analysé le comportement de l’algorithme de recommandation lorsque celui-ci détecte une appétence pour les contenus complotistes et anti-vaccination. Pour ce faire, ils ont consulté de nombreuses vidéos du genre et aimé chacune d’entre elles. Rapidement, l’algorithme les a inclus à la catégorie “pour toi” jusqu’à ce qu’elles soient en majorité sur le fil d’actualités. L’organisation précise que cette expérience a été appliquée à plusieurs comptes différents.

De dangereuses bulles de filtres

Pour mieux comprendre la dangerosité d’une telle personnalisation, il faut saisir le principe de bulles de filtres. Théorisé par le militant Eli Pariser, il est défini comme le filtrage de l’information qui parvient à l’internaute et l’état d’isolement intellectuel et culturel dans lequel il se retrouve quand les informations qu’il trouve sur Internet résultent de cette personnalisation. Nous vous invitons à consulter notre dossier consacré à ce sujet.

Des records d’audience

Enfin, Media Matters s’est intéressé à l’audience de ce genre de vidéos (18 au total). L’une d’entre elles, qui liste les prétendus variants futurs du coronavirus, a été vue plus de 5,6 millions de fois selon les captures d’écran réalisées par l’organisme. Le même constat s’applique pour une vidéo complotiste sur le vaccin qui enregistre quant à elle pas moins de 6 millions de vues. Le constat est clair pour Media Matters qui n’est pas tendre avec l’entreprise.

“TikTok a apparemment fait de l’engagement sur le contenu sa priorité, au-dessus du bien-être de ses utilisateurs, permettant la diffusion d’informations inexactes et de mensonges dangereux sur le COVID-19 et les vaccinations à un moment où la désinformation a un impact réel sur la crise sanitaire. TikTok a un problème d’algorithme, et il est temps pour l’entreprise de le résoudre.”

Rappelons que pour rassurer les régulateurs européens, la plateforme a récemment officialisé son centre de la transparence et de responsabilité en Irlande. Alors qu’il sera inauguré dès l’année prochaine, les experts et universitaires qui y seront conviés auront visiblement du pain sur la planche.

Nous avons interrogé un porte-parole de l’entreprise au sujet de cette expérience menée par Media Matters.

“Chez TikTok, assurer la sécurité de la communauté est une priorité absolue. TikTok prend avec le plus grand sérieux sa responsabilité d’offrir à ses utilisateurs un environnement sûr au sein duquel ils peuvent exprimer leur créativité. Nos Règles Communautaires indiquent clairement les comportements acceptés et ceux qui ne le sont pas. Nous appliquons ces règles de façon proactive, en utilisant tant la technologie qu’une modération humaine et ce, avant même qu’un contenu ne nous soit signalé. Nous supprimons tout contenu, y compris vidéos, fichiers audio, livestreams, images, commentaires et textes, qui ne respecte pas nos Règles Communautaires.”

 

🟣 Pour ne manquer aucune news sur le Journal du Geek, abonnez-vous sur Google Actualités. Et si vous nous adorez, on a une newsletter tous les matins.

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *