Ao clicar em “Aceitar todos os cookies”, concorda com o armazenamento de cookies no seu dispositivo para melhorar a navegação no site, analisar a utilização do site e ajudar nos nossos esforços de marketing. Mais informações
Definições de cookies
Ao clicar em “Aceitar todos os cookies”, concorda com o armazenamento de cookies no seu dispositivo para melhorar a navegação no site, analisar a utilização do site e ajudar nos nossos esforços de marketing. Mais informações
Junte-se a nós para uma análise aprofundada do papel da IA na música, desde a análise de dados de áudio até a geração de novas músicas. Explore seu impacto e aplicações na indústria musical.
A Inteligência Artificial (IA) tem como objetivo recriar a inteligência humana em máquinas. Uma parte importante de ser humano é a nossa conexão com as artes, especialmente a música. A música influencia profundamente a nossa cultura e as nossas emoções. Graças aos avanços na IA, as máquinas agora podem criar músicas que soam como se tivessem sido compostas por humanos. A música com IA abre novas possibilidades para colaborações inovadoras entre humanos e IA e transforma a forma como vivenciamos e interagimos com a música.
Neste artigo, exploraremos como a IA é usada para criar música. Também discutiremos a conexão entre a IA e ferramentas de marcação de música como o MusicBrainz Picard e seu impacto em artistas, produtores e na indústria do entretenimento em geral.
IA de som e sua importância
A IA pode lidar com vários tipos de dados, incluindo som. Os dados de som, frequentemente chamados de dados de áudio, são uma mistura de frequências de onda em diferentes intensidades ao longo do tempo. Assim como imagens ou dados de séries temporais, os dados de áudio podem ser transformados em um formato que os sistemas de IA podem processar e analisar. As ondas sonoras podem ser convertidas em dados numéricos que podem ser analisados por modelos de IA.
Outro método interessante é usar as Transformadas de Fourier, que convertem ondas sonoras em um espectrograma. Um espectrograma é uma representação visual que mostra como diferentes frequências de som variam ao longo do tempo. Os modelos de IA podem aplicar técnicas de reconhecimento de imagem para analisar e interpretar os dados de áudio, tratando este espectrograma como uma imagem. A IA pode identificar padrões e características dentro do som, da mesma forma que faria com dados visuais.
Fig 1. Um exemplo de som sendo classificado por IA.
Usar a IA para analisar, manipular e gerar dados de áudio cria uma variedade de aplicações. Aqui estão alguns exemplos:
Geração e composição de música: Criar novas músicas aprendendo com composições existentes e auxiliando músicos com melodias, harmonias e ritmos.
Aprimoramento de áudio e redução de ruído: Melhorar a qualidade do áudio, reduzindo o ruído de fundo para centrais de atendimento, aparelhos auditivos e edição de áudio.
Resumo de podcasts: Gerar resumos concisos de episódios de podcast para facilitar o consumo de conteúdo.
Detecção de emoção na fala: Detectar emoções na fala para atendimento ao cliente, monitoramento da saúde mental e pesquisa da experiência do usuário.
Entendendo como os geradores de música com IA funcionam
Os geradores de música com IA funcionam analisando e aprendendo com músicas existentes, semelhante à geração de imagens. É importante entender a diferença entre usar a IA para entender a música e usar a IA para gerá-la. Entender a música envolve analisar e identificar padrões, enquanto gerar música envolve criar novas composições com base nesses padrões aprendidos.
Fig 2. Comparando o Entendimento da Música Usando IA e a Geração de Música com IA.
O processo de geração de música com IA começa com a coleta de um grande conjunto de dados de música que inclui vários gêneros e estilos. O conjunto de dados é então dividido em componentes menores, como notas, acordes e ritmos, que são convertidos em dados numéricos que a IA pode processar.
Existem muitos modelos generativos de IA diferentes que podem ser treinados para gerar música. Por exemplo, modelos de IA como Transformers e Autoencoders Variacionais (VAEs) podem trabalhar juntos para gerar música. Os VAEs podem comprimir sons de entrada em um espaço latente, agrupando peças de música semelhantes para capturar a diversidade e a riqueza da música. Os Transformers então usam este espaço latente para gerar novas músicas, entendendo padrões e focando em notas importantes em uma sequência.
Depois que um modelo de IA é treinado nesses dados, a IA pode gerar novas músicas prevendo a próxima nota ou acorde com base no que aprendeu. Ele pode criar composições inteiras juntando essas previsões. A música gerada pode ser ajustada para corresponder a estilos ou preferências específicas.
Estamos começando a ver mais geradores de música usando esta tecnologia. Aqui estão alguns exemplos:
MusicLM do Google: Gera música com base em prompts de texto, permitindo que os usuários especifiquem o gênero, o humor, os instrumentos e a sensação geral.
MusicGen da Meta: Cria música a partir de descrições de texto ou melodias existentes, usando uma ferramenta chamada EnCodec para processar dados de áudio.
Stable Audio 2.0 da Stability AI: Produz faixas de áudio e efeitos sonoros de alta qualidade a partir de entradas de texto e áudio, capaz de criar faixas completas e transformar amostras de áudio com base em prompts.
O impacto da IA na indústria musical
A inovação em IA está criando novas oportunidades e desafios para músicos, ouvintes e produtores, levando a situações que eles podem não ter vivenciado antes. É interessante ver como cada grupo está se adaptando a esses avanços, usando novas ferramentas e lidando com preocupações sobre originalidade e ética. Além de gerar música, a IA tem outros potenciais interessantes na indústria musical, como aprimorar apresentações ao vivo, melhorar a descoberta de músicas e auxiliar nos processos de produção. Vamos analisar mais de perto como a IA está afetando músicos, ouvintes e produtores na indústria musical.
Fig 3. O Impacto da IA Generativa na Indústria Musical.
Impacto nos músicos
A IA está mudando a forma como os músicos criam música. Ferramentas integradas com IA generativa podem ajudar a gerar novas melodias, progressões de acordes e letras, tornando mais fácil para os músicos superarem bloqueios criativos. A IA também tem sido usada para completar obras inacabadas, como a nova música dos Beatles, "Now And Then", criada com os vocais de John Lennon de uma demo antiga. No entanto, o aumento da música gerada por IA que imita o estilo de artistas estabelecidos levanta preocupações sobre a originalidade. Por exemplo, artistas como Bad Bunny estão preocupados com a IA replicando suas vozes e estilos sem consentimento.
Além de criar música, a IA e a visão computacional podem ajudar os músicos a montar melhores apresentações e videoclipes. Um videoclipe consiste em muitos elementos diferentes, e um desses elementos é a dança. Modelos de estimativa de pose como o Ultralytics YOLOv8 podem entender poses humanas em imagens e vídeos e desempenhar um papel na criação de sequências de dança coreografadas que são sincronizadas com a música.
Outro bom exemplo de como a IA pode ser usada para coreografia é o projeto "Dance to Music" da NVIDIA. Neste projeto, eles usaram IA e um processo de duas etapas para gerar novos movimentos de dança que são diversos, consistentes em estilo e combinam com o ritmo. Primeiro, a estimativa de pose e um detector cinemático de batida foram usados para aprender vários movimentos de dança no ritmo de uma grande coleção de vídeos de dança. Em seguida, um modelo de IA generativa foi usado para organizar esses movimentos de dança em uma coreografia que combinava com o ritmo e o estilo da música. Movimentos de dança coreografados por IA adicionam um elemento visual interessante aos videoclipes e ajudam os artistas a serem mais criativos.
Impacto nos ouvintes
Para os ouvintes, a IA pode melhorar a descoberta de músicas e a experiência de audição. Plataformas como o Spotify e a Apple Music estão usando IA para selecionar playlists personalizadas e recomendar novas músicas com base nos hábitos de audição dos usuários. Quando você descobre novos artistas e gêneros nessas plataformas, essa é a mágica da IA.
A realidade virtual (RV) alimentada por IA também está melhorando as experiências de shows ao vivo. Por exemplo, Travis Scott usa RV para criar apresentações virtuais que alcançam públicos globais. No entanto, a abundância de música gerada por IA em plataformas como o TikTok pode tornar a descoberta de música esmagadora. Pode dificultar a distinção de novos artistas.
Fig 4. A IA torna possíveis experiências de shows de realidade virtual (RV).
Impacto nos produtores
Os produtores se beneficiam da IA de várias maneiras. Ferramentas de IA que auxiliam na correção de afinação, mixagem e masterização agilizam o processo de produção. Instrumentos virtuais e sintetizadores alimentados por IA, como o Watson Beat da IBM, podem criar novos sons e texturas que expandem as possibilidades criativas.
A IA em plataformas de streaming não é apenas um benefício para os ouvintes; também ajuda os produtores, criando um público mais amplo. No entanto, assim como os músicos estão preocupados, a capacidade da IA de imitar o estilo de artistas estabelecidos levanta questões éticas e legais sobre a exploração das vozes e estilos únicos dos artistas. Isso resultou em disputas legais, como processos de grandes empresas de música como Universal, Sony e Warner contra startups de IA como Suno e Udio por supostamente usar obras protegidas por direitos autorais para treinar seus modelos sem permissão.
Gerenciando bibliotecas de música com ferramentas integradas com IA como o MusicBrainz Picard
Exploramos brevemente algumas aplicações da IA na música, entendendo seu impacto em diferentes partes interessadas na indústria musical. Agora, vamos entender uma aplicação mais específica da IA na música: ferramentas de gerenciamento de música aprimoradas por IA, como o MusicBrainz Picard. Essas ferramentas são incrivelmente úteis para organizar e gerenciar bibliotecas de música digital.
Fig 5. As bibliotecas de música podem ser gerenciadas usando IA.
Eles identificam e marcam automaticamente arquivos de música com metadados precisos, como nomes de artistas, títulos de álbuns e números de faixas. O MusicBrainz Picard facilita a manutenção de coleções de música bem organizadas. Uma das principais tecnologias integradas ao MusicBrainz Picard são as impressões digitais de áudio AcoustID. Essas impressões digitais identificam arquivos de música com base em seu conteúdo de áudio real, mesmo que os arquivos não tenham metadados.
Por que isso é tão importante?Grandes organizações como a BBC, Google, Amazon, Spotify e Pandora confiam nos dados do MusicBrainz para aprimorar seus serviços relacionados à música. Os metadados criados por ferramentas como o MusicBrainz Picard são cruciais para desenvolvedores que criam bancos de dados de música, aplicativos de marcação ou outros softwares relacionados à música. A espinha dorsal da IA são os dados e, sem ferramentas como o Picard, seria muito difícil ter os dados limpos e precisos necessários para análise e desenvolvimento de aplicativos. É fascinante que ferramentas aprimoradas por IA usem IA e ajudem a criar os dados necessários para aplicativos de IA, formando um ciclo benéfico de melhoria e inovação.
Notas finais sobre IA na música
Discutimos as ondas que a IA na música está causando. O cenário jurídico em torno da música gerada por IA também está evoluindo. As regulamentações atuais, como as do U.S. Copyright Office, estipulam que obras geradas inteiramente por IA não podem ser protegidas por direitos autorais, pois carecem de autoria humana. No entanto, se um humano contribuir significativamente para o processo criativo, a obra poderá se qualificar para proteção de direitos autorais. À medida que a IA continua a se integrar à indústria musical, discussões legais e éticas contínuas serão vitais para enfrentar esses desafios. Olhando para o futuro, a IA tem um tremendo potencial na música, combinando tecnologia com criatividade humana para expandir as possibilidades na criação e produção musical.