Nos últimos anos, houve uma explosão nas aplicações de inteligência artificial para campos criativos. Uma nova geração de geradores de imagem e texto está apresentando resultados impressionantes. Agora, a IA também encontrou aplicações na música.

Na semana passada, um grupo de pesquisadores do Google lançou o MusicLM – um gerador de música baseado em IA que pode converter prompts de texto em segmentos de áudio. É outro exemplo do ritmo acelerado de inovação em alguns anos incríveis para a IA criativa.

Com a indústria da música ainda se ajustando às interrupções causadas pela Internet e pelos serviços de streaming, há muito interesse em como a IA pode mudar a forma como criamos e experimentamos a música.

Automação da criação de música

Várias ferramentas de IA agora permitem que os usuários gerem sequências musicais ou segmentos de áudio automaticamente. Muitas são gratuitas e de código aberto, como o kit de ferramentas Magenta do Google.

Duas das abordagens mais conhecidas na geração de música por IA são: 1. continuação, em que a IA continua uma sequência de notas ou dados de forma de onda, e 2.. harmonização ou acompanhamento, onde a IA gera algo para complementar a entrada, como acordes para acompanhar uma melodia.

Semelhante à IA de geração de texto e imagem, os sistemas de IA de música podem ser treinados em vários de diferentes conjuntos de dados. Você poderia, por exemplo, estender uma melodia de Chopin usando um sistema treinado no estilo de Bon Jovi – como lindamente demonstrado no MuseNet da OpenAI.

Essas ferramentas podem ser uma grande inspiração para artistas com “síndrome da página em branco” , mesmo que o próprio artista dê o empurrão final. A estimulação criativa é uma das aplicações imediatas das ferramentas criativas de IA atualmente.

Mas onde essas ferramentas podem um dia ser ainda mais úteis é na ampliação do conhecimento musical. Muitas pessoas podem escrever uma música, mas poucas sabem como manipular acordes habilmente para evocar emoções ou como escrever música em uma variedade de estilos.

Embora as ferramentas de IA de música tenham um longo caminho a percorrer para fazer o trabalho de maneira confiável trabalho de músicos talentosos, um punhado de empresas está desenvolvendo plataformas de IA para geração de música.

Boomy segue o caminho minimalista: usuários sem experiência musical podem criar uma música com alguns cliques e depois reorganizá-la. Aiva tem uma abordagem semelhante, mas permite um controle mais fino; os artistas podem editar a música gerada nota por nota em um editor personalizado.

Há um porém. As técnicas de aprendizado de máquina são notoriamente difíceis de controlar, e gerar música usando IA é um mergulho de sorte por enquanto; você pode ocasionalmente encontrar ouro ao usar essas ferramentas, mas pode não saber por quê.

Um desafio contínuo para as pessoas que criam essas ferramentas de IA é permitir um controle mais preciso e deliberado sobre o que os algoritmos generativos produzem.

Novas maneiras de manipular estilo e som As ferramentas Music AI também permitem que os usuários transformem uma sequência musical ou segmento de áudio. A tecnologia da biblioteca Differentiable Digital Signal Processing do Google Magenta, por exemplo, realiza a transferência de timbre.

Timbre é o termo técnico para a textura do som – a diferença entre um motor de carro e um apito. Usando a transferência de timbre, o timbre de um segmento de áudio pode ser alterado.

Essas ferramentas são um ótimo exemplo de como a IA pode ajudar músicos a compor orquestrações ricas e alcançar sons completamente novos.

No primeiro AI Song Contest, realizado em 2020, o estúdio de música Uncanny Valley, com sede em Sydney (com quem colaboro), usou a transferência de timbre para trazer coalas cantores para a mixagem. A transferência de timbre juntou-se a uma longa história de técnicas de síntese que se tornaram instrumentos em si mesmas.

Separando a música A geração e a transformação da música são apenas uma parte da equação. Um problema de longa data no trabalho de áudio é o da “separação de fontes”. Isso significa ser capaz de dividir uma gravação de áudio de uma faixa em seus instrumentos separados.

Embora não seja perfeita, a separação de fontes com tecnologia AI percorreu um longo caminho. Seu uso provavelmente será um grande negócio para os artistas; alguns dos quais não vão gostar que outros possam”arrombar a fechadura”em suas composições.

Enquanto isso, DJs e artistas de mashup ganharão um controle sem precedentes sobre como mixar e remixar faixas. A startup de separação de fontes Audioshake afirma que isso fornecerá novos fluxos de receita para artistas que permitem que suas músicas sejam adaptadas mais facilmente, como para TV e cinema.

Os artistas podem ter que aceitar que a caixa de Pandora foi aberta , como foi o caso quando os sintetizadores e baterias eletrônicas chegaram e, em algumas circunstâncias, substituíram a necessidade de músicos em determinados contextos.

Mas observe este espaço, porque as leis de direitos autorais oferecem proteção aos artistas contra a manipulação não autorizada de seu trabalho. É provável que isso se torne outra área cinzenta na indústria da música, e a regulamentação pode ter dificuldade para acompanhar.

Novas experiências musicais A popularidade da lista de reprodução revelou o quanto gostamos de ouvir música que tenha alguma utilidade”funcional”, como para se concentrar, relaxar, adormecer ou se exercitar.

A start-up Endel fez da música funcional alimentada por IA seu modelo de negócios, criando fluxos infinitos para ajudar a maximizar certos estados cognitivos.

A música de Endel pode ser conectada a dados fisiológicos, como a frequência cardíaca do ouvinte. Seu manifesto baseia-se fortemente em práticas de atenção plena e faz a proposta ousada de que podemos usar “novas tecnologias para ajudar nossos corpos e cérebros a se adaptarem ao novo mundo”, com seu ritmo agitado e indutor de ansiedade.

Outro começo-ups também estão explorando a música funcional. Aimi está examinando como produtores individuais de música eletrônica podem transformar sua música em fluxos infinitos e interativos.

O aplicativo de ouvinte da Aimi convida os fãs a manipular os parâmetros generativos do sistema, como”intensidade”ou”textura”, ou decidir quando um queda acontece. O ouvinte se envolve com a música em vez de ouvir passivamente.

É difícil dizer quanto trabalho pesado a IA está fazendo nesses aplicativos – potencialmente pouco. Mesmo assim, tais avanços estão orientando as visões das empresas sobre como a experiência musical pode evoluir no futuro.

O futuro da música As iniciativas mencionadas acima estão em conflito com várias convenções, leis e valores culturais estabelecidos há muito tempo em relação como criamos e compartilhamos música.

As leis de direitos autorais serão mais rígidas para garantir que as empresas que treinam sistemas de IA nas obras dos artistas compensem esses artistas? E para que seria essa compensação? As novas regras serão aplicadas à separação de fontes? Os músicos que usam IA gastarão menos tempo fazendo música ou farão mais música do que nunca? Se há uma coisa certa, é a mudança.

À medida que uma nova geração de músicos cresce imersa nas possibilidades criativas da IA, eles encontrarão novas maneiras de trabalhar com essas ferramentas.

Tal turbulência não é novidade na história da tecnologia musical, e nem tecnologias poderosas nem convenções vigentes devem ditar nosso futuro criativo.

Os links de afiliados podem ser gerados automaticamente-consulte nossa declaração de ética para obter detalhes.

By Kaitlynn Clay

Eu trabalho como especialista em UX. Estou interessado em web design e análise de comportamento do usuário. Nos meus dias de folga, sempre visito o museu de arte.