Passer au contenu

Deezer : jusqu’à 70 % des écoutes de musique IA sont frauduleuses

L’IA s’invite dans la musique, pour le meilleur… et parfois pour le pire. Deezer tire la sonnette d’alarme : les fraudeurs se servent de cette technologie pour générer des milliers de faux morceaux et trafiquer les écoutes en streaming.

Les fraudeurs du streaming ne manquent pas d’imagination pour soutirer des sous aux plateformes. Selon Deezer, jusqu’à 70 % des écoutes de morceaux générés par intelligence artificielle présents sur le service seraient frauduleuses. Un chiffre impressionnant, qui ne concerne toutefois qu’un segment encore minoritaire : la musique générée par IA ne pèse en effet que 0,5 % des écoutes totales. Elle progresse cependant rapidement… en attirant les fraudeurs.

20 000 morceaux IA uploadées chaque jour

Ces derniers exploitent un système bien rodé : ils créent des chansons artificielles à la chaîne qui sont uploadées massivement — près de 20 000 titres par jour, d’après Deezer ! —, puis ils utilisent des bots pour les écouter en boucle. L’objectif est de capter une part des revenus issus des royalties, un système qui repose sur le volume d’écoutes. Pour contourner les détections classiques, les petits malins évitent de concentrer trop d’écoutes sur un seul titre, ils déploient leurs efforts sur un large catalogue de fausses productions.

« Tant qu’il y aura de l’argent en jeu, certains essaieront d’en profiter », résume Thibault Roucou, directeur des droits d’auteur chez Deezer, auprès du Guardian. « C’est pourquoi nous investissons dans la lutte contre ces abus. » La plateforme affirme pouvoir détecter 100 % des contenus générés par certains modèles d’IA comme Suno ou Udio, et bloque le paiement des royalties pour les écoutes jugées frauduleuses. Par ailleurs, Deezer a retiré ces contenus de ses recommandations algorithmiques.

La menace dépasse largement les frontières de Deezer. Le marché mondial du streaming, évalué à 20,4 milliards de dollars en 2024 par la Fédération internationale de l’industrie phonographique (IFPI), attire les convoitises. Et pour l’IFPI, l’essor de l’IA générative ne fait qu’aggraver la situation.

Dans son dernier rapport annuel, l’organisation dénonce l’exploitation des œuvres musicales par des développeurs d’IA pour entraîner leurs modèles, sans consentement ni rémunération. L’IFPI évoque aussi les dangers des manipulations de streaming à grande échelle, qui sont d’autant plus faciles à réaliser que les outils IA savent générer des titres, mais aussi des pochettes et même de fausses identités artistiques.

« C’est du vol », assène l’IFPI. Ces pratiques nuisent non seulement aux artistes légitimes, mais aussi à la confiance des utilisateurs et à l’intégrité des plateformes de streaming. Et plus largement à l’art aussi ! C’est pourquoi la Fédération appelle les gouvernements à réglementer l’usage de l’IA, notamment en interdisant l’entraînement non autorisé de modèles sur des contenus protégés et en exigeant la transparence sur l’origine des morceaux générés.

Loin de s’opposer en bloc à l’intelligence artificielle, l’industrie du disque explore aussi des usages légitimes et encadrés de ces technologies. Le rapport 2025 de l’IFPI met en lumière plusieurs initiatives menées par les grandes maisons de disques. Warner Music a ainsi permis à Randy Travis, victime d’un AVC, d’enregistrer un nouveau morceau en utilisant un modèle vocal IA validé par l’artiste.

🟣 Pour ne manquer aucune news sur le Journal du Geek, suivez-nous sur Google et sur notre canal WhatsApp. Et si vous nous adorez, on a une newsletter tous les matins.

Source : The Guardian

Mode