Passer au contenu

Instagram affiche des contenus sexualisés à ceux qui suivent des adolescents

Le puissant algorithme du réseau social recommande des vidéos d’enfants sexualisés aux utilisateurs qui ne suivent que de très jeunes créateurs de contenus.

Meta de nouveau sous le feu des critiques. Le géant des réseaux sociaux est accusé de ne rien faire pour lutter contre les millions d’utilisateurs mineurs de moins de 13 ans sur Instagram. Dans le même temps, l’algorithme d’Instagram se retrouve également au cœur d’une polémique particulièrement gênante pour Meta. Une enquête du Wall Street Journal révèle que l’algorithme d’Instagram dédié aux vidéos Reels recommande des séquences osées d’enfants, ainsi que des contenus ouvertement sexuels à de comptes ne suivant que de jeunes utilisateurs.

Comme son concurrent TikTok, Reels est une fonctionnalité intégrée à Instagram. Elle est conçue pour montrer aux utilisateurs de courtes vidéos en lien avec leurs centres d’intérêt, comme le sport ou la mode. Le quotidien américain a souhaité vérifier ce que proposait l’application à des comptes qui ne suivent que des influenceurs enfants ou adolescents. Ces derniers sont nombreux sur Instagram et le Wall Street Journal a créé des comptes suivants de jeunes gymnastes, pom-pom girls ou préadolescents et adolescents influenceurs. Pour rappel, les utilisateurs-ices d’Instagram doivent être agé-es d’au moins 13 ans pour s’inscrire.

L’idée est née suite à la découverte d’un « grand nombre » d’hommes adultes figurant parmi les followers de ces jeunes utilisateurs. Surtout, un  « bon nombre de ces comptes » montrait un intérêt pour les contenus sexuels liés aux enfants et aux adultes.

Instagram recommanderait des « séquences osées d’enfants » et des contenus ouvertement sexuels

Très vite, l’algorithme d’Instagram a affiché des contenus ouvertement sexuels sur les comptes de tests. L’enquête évoque l’existence d’une vidéo montrant quelqu’un caressant le visage d’une poupée en latex grandeur nature. Une autre met en évidence une jeune fille au visage masqué qui soulève sa chemise pour exposer son ventre. Dans une autre, on peut voir un homme allongé sur un lit avec ses bras autour de ce qui, selon la légende, est une fillette de 10 ans. Pêle-mêle, l’expérience a montré une créatrice de contenus pour adultes décroisant ses jambes pour révéler ses sous-vêtements, un enfant en maillot de bain posant devant un miroir ou autre créatrice de contenus pour adultes faisant des mouvements de va-et-vient. Des contenus explicites entrecoupés de publicités pour de grandes enseignes américaines. Les géants Disney, Walmart ou la maison-mère de Tinder (Match Group) sont dans la liste.

Lorsque les comptes tests ont ensuite suivi certains utilisateurs déjà abonnés aux jeunes influenceurs, des recommandations encore plus inquiétantes sont apparues. La plateforme proposait un mélange de pornographie adulte et de matériel sexualisant des enfants. Le Wall Street Journal évoque la vidéo d’une fille habillée caressant son torse et une autre d’un enfant mimant un acte sexuel. Ces résultats vont dans le même sens que des expérimentations menées par le Centre canadien de la protection des enfants.

Meta se défend, les annonceurs prennent des mesures

Des employés, anciens ou actuels, de Meta confirment que cette sexualisation des enfants sur la plateforme était connue en interne. Néanmoins, Meta semble pour l’heure minimiser le problème. La société explique que les tests du Wall Street Journal produisent une expérience fabriquée qui ne reflète pas ce que voient des milliards d’utilisateurs. Le sujet qui pourrait faire réagir le géant des réseaux sociaux est la diffusion de publicités parmi ses contenus inappropriés. Ces dernières font savoir que Meta a promis une enquête et que la société paierait pour que des audits de sécurité soient effectués par une société externe. Ils devront déterminer la fréquence à laquelle les publicités d’une entreprise apparaissent à côté de contenus qu’elles considèrent inacceptables.

Pour l’heure, plusieurs entreprises telles que Match Group, Bumble ou Disney ont retiré leur publicité de Meta. Ces entreprises, et d’autres, mettent la pression sur l’entreprise, et ne souhaitent pas être associés à ces contenus tendancieux. Nul doute que le géant américain aimerait éviter de se retrouver dans la situation de X (ex-Twitter). Ce dernier perd des annonceurs, et peine à ensiguer les contenus pornographiques sur sa plateforme.

🟣 Pour ne manquer aucune news sur le Journal du Geek, abonnez-vous sur Google Actualités. Et si vous nous adorez, on a une newsletter tous les matins.

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *