Ces dernières années ont vu une explosion des applications de l’intelligence artificielle dans les domaines créatifs. Une nouvelle génération de générateurs d’images et de textes offre des résultats impressionnants. Désormais, l’IA a également trouvé des applications dans la musique.

La semaine dernière, un groupe de chercheurs de Google a lancé MusicLM, un générateur de musique basé sur l’IA qui peut convertir des invites textuelles en segments audio. C’est un autre exemple du rythme rapide de l’innovation en quelques années incroyables pour l’IA créative.

Alors que l’industrie de la musique continue de s’adapter aux perturbations causées par Internet et les services de streaming, il y a beaucoup d’intérêt pour la façon dont l’IA pourrait changer la façon dont nous créons et expérimentons la musique.

Automatisation de la création musicale

Un certain nombre d’outils d’intelligence artificielle permettent désormais aux utilisateurs de générer automatiquement des séquences musicales ou des segments audio. Beaucoup sont gratuits et open source, comme la boîte à outils Magenta de Google.

Deux des approches les plus connues dans la génération de musique par IA sont : 1. la continuation, où l’IA continue une séquence de notes ou de données de forme d’onde, et 2. harmonisation ou accompagnement, où l’IA génère quelque chose pour compléter l’entrée, comme des accords pour accompagner une mélodie.

Semblable à l’IA générant du texte et des images, les systèmes d’IA musicale peuvent être entraînés sur un certain nombre de différents ensembles de données. Vous pourriez, par exemple, étendre une mélodie de Chopin en utilisant un système formé dans le style de Bon Jovi-comme magnifiquement démontré dans MuseNet d’OpenAI.

De tels outils peuvent être une grande source d’inspiration pour les artistes atteints du”syndrome de la page blanche”. , même si l’artiste lui-même donne l’impulsion finale. La stimulation créative est l’une des applications immédiates des outils d’IA créatifs aujourd’hui.

Mais là où ces outils pourraient un jour être encore plus utiles, c’est dans l’extension de l’expertise musicale. Beaucoup de gens peuvent écrire une mélodie, mais moins savent manipuler habilement les accords pour évoquer des émotions, ou comment écrire de la musique dans une gamme de styles.

Bien que les outils d’IA musicale aient du chemin à faire pour faire de manière fiable le travail de musiciens talentueux, une poignée d’entreprises développent des plates-formes d’IA pour la génération de musique.

Boomy prend la voie minimaliste : les utilisateurs sans expérience musicale peuvent créer une chanson en quelques clics, puis la réorganiser. Aiva a une approche similaire, mais permet un contrôle plus fin ; les artistes peuvent éditer la musique générée note par note dans un éditeur personnalisé.

Il y a cependant un hic. Les techniques d’apprentissage automatique sont notoirement difficiles à contrôler, et générer de la musique à l’aide de l’IA est un peu un coup de chance pour l’instant ; vous pourriez parfois trouver de l’or en utilisant ces outils, mais vous ne savez peut-être pas pourquoi.

Un défi permanent pour les personnes qui créent ces outils d’IA est de permettre un contrôle plus précis et délibéré sur ce que produisent les algorithmes génératifs.

De nouvelles façons de manipuler le style et le son Les outils Music AI permettent également aux utilisateurs de transformer une séquence musicale ou un segment audio. La technologie de bibliothèque Differentiable Digital Signal Processing de Google Magenta, par exemple, effectue un transfert de timbre.

Timbre est le terme technique désignant la texture du son, c’est-à-dire la différence entre un moteur de voiture et un sifflet. À l’aide du transfert de timbre, le timbre d’un segment audio peut être modifié.

Ces outils sont un excellent exemple de la façon dont l’IA peut aider les musiciens à composer des orchestrations riches et à obtenir des sons complètement nouveaux.

Lors du premier AI Song Contest, organisé en 2020, le studio de musique basé à Sydney Uncanny Valley (avec qui je collabore) a utilisé le transfert de timbre pour intégrer des koalas chanteurs dans le mix. Le transfert de timbre a rejoint une longue histoire de techniques de synthèse qui sont devenues des instruments en soi.

Démonter la musique La génération et la transformation de la musique ne sont qu’une partie de l’équation. Un problème de longue date dans le travail audio est celui de la”séparation des sources”. Cela signifie être capable de diviser un enregistrement audio d’une piste en ses instruments séparés.

Bien qu’elle ne soit pas parfaite, la séparation des sources alimentée par l’IA a parcouru un long chemin. Son utilisation est susceptible d’être un gros problème pour les artistes; certains d’entre eux n’aimeront pas que d’autres puissent « crocheter la serrure » sur leurs compositions.

Pendant ce temps, les DJ et les artistes de mashup obtiendront un contrôle sans précédent sur la façon dont ils mixent et remixent les morceaux. La start-up de séparation à la source Audioshake affirme que cela fournira de nouvelles sources de revenus aux artistes qui permettent d’adapter plus facilement leur musique, comme pour la télévision et le cinéma.

Les artistes devront peut-être accepter que la boîte de Pandore ait été ouverte , comme ce fut le cas lorsque les synthétiseurs et les boîtes à rythmes sont arrivés pour la première fois et, dans certaines circonstances, ont remplacé le besoin de musiciens dans certains contextes.

Mais surveillez cet espace, car les lois sur le droit d’auteur offrent aux artistes une protection contre la manipulation non autorisée de leur travail. Cela est susceptible de devenir une autre zone grise dans l’industrie de la musique, et la réglementation peut avoir du mal à suivre.

Nouvelles expériences musicales La popularité des playlists a révélé à quel point nous aimons écouter de la musique qui a une certaine utilité”fonctionnelle”. , comme se concentrer, se détendre, s’endormir ou s’entraîner.

La start-up Endel a fait de la musique fonctionnelle alimentée par l’IA son modèle économique, créant des flux infinis pour aider à maximiser certains états cognitifs.

La musique d’Endel peut être reliée à des données physiologiques telles que la fréquence cardiaque d’un auditeur. Son manifeste s’appuie fortement sur les pratiques de pleine conscience et fait la proposition audacieuse que nous pouvons utiliser”les nouvelles technologies pour aider notre corps et notre cerveau à s’adapter au nouveau monde”, avec son rythme effréné et anxiogène.

Autre début-ups explore également la musique fonctionnelle. Aimi examine comment les producteurs de musique électronique individuels peuvent transformer leur musique en flux infinis et interactifs.

L’application d’écoute d’Aimi invite les fans à manipuler les paramètres génératifs du système tels que”l’intensité”ou la”texture”, ou à décider quand un la chute se produit. L’auditeur s’engage avec la musique plutôt que d’écouter passivement.

Il est difficile de dire à quel point l’IA fait de gros efforts dans ces applications-potentiellement peu. Même ainsi, ces avancées guident les visions des entreprises sur la façon dont l’expérience musicale pourrait évoluer à l’avenir.

L’avenir de la musique Les initiatives mentionnées ci-dessus sont en conflit avec plusieurs conventions, lois et valeurs culturelles établies de longue date concernant comment nous créons et partageons de la musique.

Les lois sur le droit d’auteur seront-elles renforcées pour garantir que les entreprises formant des systèmes d’IA sur les œuvres d’artistes rémunèrent ces artistes ? Et à quoi servirait cette compensation ? De nouvelles règles s’appliqueront-elles à la séparation à la source ? Les musiciens utilisant l’IA passeront-ils moins de temps à faire de la musique, ou feront-ils plus de musique que jamais auparavant ? S’il y a une chose qui est certaine, c’est le changement.

Alors qu’une nouvelle génération de musiciens grandit immergés dans les possibilités créatives de l’IA, ils trouveront de nouvelles façons de travailler avec ces outils.

De telles turbulences ne sont pas nouvelles dans l’histoire de la technologie musicale, et ni les technologies puissantes ni les conventions permanentes ne devraient dicter notre avenir créatif.

Les liens d’affiliation peuvent être générés automatiquement-consultez notre déclaration d’éthique pour plus de détails.

By Henry Taylor

Je travaille en tant que développeur back-end. Certains d'entre vous m'ont peut-être vu à la conférence des développeurs. Dernièrement, j'ai travaillé sur un projet open source.