Passer au contenu

Le Jukebox d’OpenAI écrit des morceaux de musique… et c’est fantastique

L’une des équipes d’OpenAI a mis au point une intelligence artificielle capable de créer des morceaux à partir d’audio, de paroles et de partitions d’autres artistes, le tout avec des résultats plus organiques que jamais. Stupéfiant !

© Jorge Guillen – Pixabay

On ne présente plus OpenAI, l’intelligence artificielle de l’entreprise éponyme. Ce framework a donné vie à de nombreux projets. Certains sont devenus célèbres car ils représentent de grandes premières, en plus d’être très accessibles au grand public. C’est par exemple le cas d’OpenAI Five, une équipe de cinq neural networks qui a massacré l’équipe professionnelle de DOTA OG, alors championne du monde en titre. D’autres sont bien plus conceptuels, et moins abordables pour monsieur et madame tout-le-monde : pour ceux que cela intéresserait, la liste complète est disponible sur leur site.

Mais parmi tous les domaines où OpenAI commence à faire son trou, il en est un où chaque avancée est particulièrement excitante : la musique. Parfois considérée comme un reflet de l’esprit de son ou ses auteurs, la musique est une discipline schizophrène. Elle est à la fois intrinsèquement cartésienne, car basée sur des principes physiques bien connus qui définissent, entre autres, les différentes harmonies, mais elle est aussi profondément abstraite et organique, dans la mesure où il existe autant de conceptions de la musique que de cultures, et même que d’êtres humains. Cette dualité la rend à la fois parfaitement compréhensible, mais en un sens inabordable pour les machines à qui il manque ce petit supplément d’âme. C’est donc tout naturellement que lorsque le machine learning et les réseaux neuronaux simulés (nous parlerons de neural nets par convention) ont commencé à exploser, des chercheurs ont immédiatement commencé à explorer le monde de la composition musicale. Avec des résultats mitigés, d’abord : pendant très longtemps, l’IA appliquée à la musique est restée loin derrière celles consacrées au traitement de l’image ou du langage. De 2013 à 2018, de nombreuses études sur le sujet ont cependant commencé à apparaître, avec notamment un nombre croissant d’IAs capable de lire et d’interpréter la notation musicale. Ces IAs basées sur la lecture de partition sont très flexibles, peuvent ingurgiter et travailler avec un répertoire gargantuesque, mais sont souvent assez facilement identifiables par une oreille aiguisée car il leur manque souvent la subtilité propre à la composition humaine.

Mais c’était avant que DeepMind – un autre très grand nom de l’IA connu notamment pour ses IA joueuses d’échecs, de shogi et de go – ne vienne jeter un pavé dans la mare. En 2018, l’entreprise de Demis Hassabis s’attaquait à la musique avec une première étude d’envergure. Dans un papier absolument fascinant, l’équipe de Sander Dieleman a décrit le processus de création d’une IA capable d’apprendre à jouer du piano en s’inspirant des grands maîtres du passé, comme Beethoven, Chopin, Debussy, Liszt… mais avec une différence majeure : cette intelligence artificielle a appris à le faire sans la partition, mais à partir d’audio brut !

© Pexels – Pixabay

Une avancée absolument majeure, la première qui commence à faire le pont entre la musique théorique et la musique, telle que ressentie par les humains. En effet, en ingurgitant de l’audio plutôt que des partitions, l’IA est capable d’intégrer les petites nuances qui donnent à la musique son côté organique, propre à l’artiste. Cela a ouvert de nouvelles portes à Deep Mind. Par exemple, les chercheurs ont demandé à leur IA de continuer des suites de notes déjà existantes, avec des résultats absolument bluffants. Sur la page de blog consacrée à cette IA baptisée Musenet, les chercheurs ont proposé 4 suites aux premières notes de la célèbre Marche Turque de Mozart. Et sincèrement, si vous n’avez jamais entendu l’original, on ne vous en voudra pas de trouver ces 4 morceaux parfaitement cohérents !

Une IA qui apprend directement des plus grands

Mais la semaine dernière, OpenIA s’est encore surpassé avec la publication d’un nouveau papier de recherche, où les chercheurs présentent une technique hybride. Un nouveau système de leur IA Jukebox permet en effet de travailler à la fois avec des partitions, mais aussi avec des extraits sonores pour allier les avantages des deux méthodes. Mais ce n’est pas tout, loin de là : leur IA peut désormais créer une chanson à partir d’un genre entier, du répertoire d’un artiste, ou même de paroles ! Si cela ne vous a pas suffi à apprécier l’ampleur de ce tour de force, nous vous proposons de vous sangler solidement à votre siège et d’écouter quelques uns des exemples sélectionnés par l’équipe de recherche : un exemple hip-hop, une chanson inspirée de Kylie Minogue , une autre dans le style de Bob Marley, ce blues façon Joe Bonamassa ou encore un morceau de crooner inspiré par Sinatra.

 

Mention spéciale au morceau façon Alan Jackson, exceptionnel de cohérence jusque dans les paroles. On croirait presque à un mauvais enregistrement d’une chanson jamais entendue du chanteur country ! Un exemple de morceau (réel, cette fois) pour illustrer son registre et comparer :

Certes, ces morceaux ne sont pas parfaits. Les voix ont encore tendance à grésiller, surtout lorsqu’ils sont superposés avec du piano ou de la basse. En termes de structure, certains restent particulièrement confus. L’exemple “Heavy Metal”, inspiré du groupe Rage, est truffé de transitions douteuses et semble avoir été composé par un garage band en perdition lors d’une soirée bien arrosée… mais on ouvre quand même de grands yeux quand arrive une voix qui ressemblerait presque à un hybride cheap entre celles de James Hetfield et de Peavy Wagner. La liste entière est disponible sur la page du projet. On rappelle que l’intégralité de ces morceaux ont été générés par une intelligence artificielle qui leur a simplement indiqué un répertoire et des paroles… Certes, elle a encore beaucoup de chemin avant de pouvoir composer de la musique comme nous le faisons. Que les plus mélomanes inquiets de voir leur artiste préféré supplanté par un algorithme se rassurent : la musique générée de cette façon ne devrait pas avoir vocation à rivaliser avec le génie des plus grands.

L’IA, future meilleure amie des créateurs de contenu ?

Mais si ces IAs n’ont pas vocation à remplacer les articles dans les charts, du moins à court terme, ne sont-elles que des jouets pour geek mélomanes ? Certainement pas. À une époque où la question de la propriété intellectuelle et du droit d’auteur prend de plus en plus de place, l’origine du contenu prend une dimension stratégique. En témoigne le raid des autorités compétentes sur la plateforme de streaming Twitch, qui a vu des centaines de streamers punis d’une plainte DMCA pour utilisation abusive de contenu sous copyright. Avoir accès à des sources de matériel audio frais serait une véritable manne pour la télévision, l’audiovisuel indépendant, les créateurs de contenu, les réseaux sociaux…

Pour autant, il ne s’agira pas d’une porte ouverte à de l’audio libre de droit en quantités infinies. Car on peut d’ores et déjà voir émerger de nombreuses questions : du matériel audio créé à partir de chansons d’un autre artiste serait-il vraiment libre de droits ? A partir de quand peut-on juger qu’une voix a été entièrement synthétisée, ou qu’elle est basée sur celle d’un artiste existant ? Nous pourrions continuer ainsi des heures, mais le plus efficace sera certainement d’attendre que le cas de figure apparaisse concrètement. En tout cas, que cela en serve pas d’excuse à OpenAI pour arrêter ses recherches, parce qu’une chose est sûre : on en redemande !

[amazon box=”B07P64LFFH”]

🟣 Pour ne manquer aucune news sur le Journal du Geek, abonnez-vous sur Google Actualités. Et si vous nous adorez, on a une newsletter tous les matins.

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Mode