Ao clicar em “Aceitar todos os cookies”, concorda com o armazenamento de cookies no seu dispositivo para melhorar a navegação no site, analisar a utilização do site e ajudar nos nossos esforços de marketing. Mais informações
Definições de cookies
Ao clicar em “Aceitar todos os cookies”, concorda com o armazenamento de cookies no seu dispositivo para melhorar a navegação no site, analisar a utilização do site e ajudar nos nossos esforços de marketing. Mais informações
Junte-se a nós para uma análise aprofundada do papel da IA na música, desde a análise de dados de áudio até a geração de novas músicas. Explore seu impacto e aplicações na indústria musical.
A Inteligência Artificial (IA) tem como objetivo recriar a inteligência humana em máquinas. Uma parte importante de ser humano é a nossa conexão com as artes, especialmente a música. A música influencia profundamente a nossa cultura e as nossas emoções. Graças aos avanços na IA, as máquinas agora podem criar músicas que soam como se tivessem sido compostas por humanos. A música com IA abre novas possibilidades para colaborações inovadoras entre humanos e IA e transforma a forma como vivenciamos e interagimos com a música.
Neste artigo, exploraremos como a IA é usada para criar música. Também discutiremos a conexão entre a IA e ferramentas de marcação de música como o MusicBrainz Picard e seu impacto em artistas, produtores e na indústria do entretenimento em geral.
IA de som e sua importância
A IA pode lidar com vários tipos de dados, incluindo som. Os dados de som, frequentemente chamados de dados de áudio, são uma mistura de frequências de onda em diferentes intensidades ao longo do tempo. Assim como imagens ou dados de séries temporais, os dados de áudio podem ser transformados em um formato que os sistemas de IA podem processar e analisar. As ondas sonoras podem ser convertidas em dados numéricos que podem ser analisados por modelos de IA.
Outro método interessante é usar as Transformadas de Fourier, que convertem ondas sonoras em um espectrograma. Um espectrograma é uma representação visual que mostra como diferentes frequências de som variam ao longo do tempo. Os modelos de IA podem aplicar técnicas de reconhecimento de imagem para analisar e interpretar os dados de áudio, tratando este espectrograma como uma imagem. A IA pode identificar padrões e características dentro do som, da mesma forma que faria com dados visuais.
Fig 1. Um exemplo de som sendo classificado por IA.
Usar a IA para analisar, manipular e gerar dados de áudio cria uma variedade de aplicações. Aqui estão alguns exemplos:
Geração e composição de música: Criar novas músicas aprendendo com composições existentes e auxiliando músicos com melodias, harmonias e ritmos.
Aprimoramento de áudio e redução de ruído: Melhorar a qualidade do áudio, reduzindo o ruído de fundo para centrais de atendimento, aparelhos auditivos e edição de áudio.
Resumo de podcasts: Gerar resumos concisos de episódios de podcast para facilitar o consumo de conteúdo.
Detecção de emoção na fala: Detectar emoções na fala para atendimento ao cliente, monitoramento da saúde mental e pesquisa da experiência do usuário.
Entendendo como os geradores de música com IA funcionam
Os geradores de música com IA funcionam analisando e aprendendo com músicas existentes, semelhante à geração de imagens. É importante entender a diferença entre usar a IA para entender a música e usar a IA para gerá-la. Entender a música envolve analisar e identificar padrões, enquanto gerar música envolve criar novas composições com base nesses padrões aprendidos.
Fig 2. Comparando o Entendimento da Música Usando IA e a Geração de Música com IA.
O processo de geração de música com IA começa com a coleta de um grande conjunto de dados de música que inclui vários gêneros e estilos. O conjunto de dados é então dividido em componentes menores, como notas, acordes e ritmos, que são convertidos em dados numéricos que a IA pode processar.
Existem muitos modelos generativos de IA diferentes que podem ser treinados para gerar música. Por exemplo, modelos de IA como Transformers e Autoencoders Variacionais (VAEs) podem trabalhar juntos para gerar música. Os VAEs podem comprimir sons de entrada em um espaço latente, agrupando peças de música semelhantes para capturar a diversidade e a riqueza da música. Os Transformers então usam este espaço latente para gerar novas músicas, entendendo padrões e focando em notas importantes em uma sequência.
Depois que um modelo de IA é treinado nesses dados, a IA pode gerar novas músicas prevendo a próxima nota ou acorde com base no que aprendeu. Ele pode criar composições inteiras juntando essas previsões. A música gerada pode ser ajustada para corresponder a estilos ou preferências específicas.
Estamos começando a ver mais geradores de música usando esta tecnologia. Aqui estão alguns exemplos:
MusicLM da Google: Gera música com base em instruções de texto, permitindo aos utilizadores especificar o género, o estado de espírito, os instrumentos e a sensação geral.
MusicGen da Meta: Cria música a partir de descrições de texto ou melodias existentes, usando uma ferramenta chamada EnCodec para processar dados de áudio.
Stable Audio 2.0 da Stability AI: Produz faixas de áudio de alta qualidade e efeitos sonoros a partir de texto e entradas de áudio, capaz de criar faixas completas e transformar amostras de áudio com base em avisos.
O impacto da IA na indústria musical
A inovação em IA está criando novas oportunidades e desafios para músicos, ouvintes e produtores, levando a situações que eles podem não ter vivenciado antes. É interessante ver como cada grupo está se adaptando a esses avanços, usando novas ferramentas e lidando com preocupações sobre originalidade e ética. Além de gerar música, a IA tem outros potenciais interessantes na indústria musical, como aprimorar apresentações ao vivo, melhorar a descoberta de músicas e auxiliar nos processos de produção. Vamos analisar mais de perto como a IA está afetando músicos, ouvintes e produtores na indústria musical.
Fig 3. O Impacto da IA Generativa na Indústria Musical.
Impacto nos músicos
A IA está mudando a forma como os músicos criam música. Ferramentas integradas com IA generativa podem ajudar a gerar novas melodias, progressões de acordes e letras, tornando mais fácil para os músicos superarem bloqueios criativos. A IA também tem sido usada para completar obras inacabadas, como a nova música dos Beatles, "Now And Then", criada com os vocais de John Lennon de uma demo antiga. No entanto, o aumento da música gerada por IA que imita o estilo de artistas estabelecidos levanta preocupações sobre a originalidade. Por exemplo, artistas como Bad Bunny estão preocupados com a IA replicando suas vozes e estilos sem consentimento.
Para além da criação de música, a IA e a visão por computador podem ajudar os músicos a criar melhores actuações e vídeos musicais. Um vídeo musical é composto por muitos elementos diferentes e um desses elementos é a dança. Modelos de estimativa de pose como o Ultralytics YOLOv8 da Ultralytics, podem compreender as poses humanas em imagens e vídeos e desempenham um papel importante na criação de sequências de dança coreografadas que são sincronizadas com a música.
Outro bom exemplo de como a IA pode ser utilizada para coreografia é o projeto"Dance to Music" da NVIDIA. Neste projeto, utilizaram a IA e um processo de duas etapas para gerar novos movimentos de dança que são diversos, consistentes com o estilo e correspondem à batida. Em primeiro lugar, a estimativa de pose e um detetor de batida cinemática foram utilizados para aprender vários movimentos de dança ao ritmo de uma grande coleção de vídeos de dança. Depois, foi utilizado um modelo de IA generativo para organizar estes movimentos de dança numa coreografia que correspondesse ao ritmo e ao estilo da música. Os movimentos de dança coreografados por IA acrescentam um elemento visual interessante aos vídeos de música e ajudam os artistas a serem mais criativos.
Impacto nos ouvintes
Para os ouvintes, a IA pode melhorar a descoberta de músicas e a experiência de audição. Plataformas como o Spotify e a Apple Music estão usando IA para selecionar playlists personalizadas e recomendar novas músicas com base nos hábitos de audição dos usuários. Quando você descobre novos artistas e gêneros nessas plataformas, essa é a mágica da IA.
A realidade virtual (RV) alimentada por IA também está melhorando as experiências de shows ao vivo. Por exemplo, Travis Scott usa RV para criar apresentações virtuais que alcançam públicos globais. No entanto, a abundância de música gerada por IA em plataformas como o TikTok pode tornar a descoberta de música esmagadora. Pode dificultar a distinção de novos artistas.
Fig 4. A IA torna possíveis experiências de shows de realidade virtual (RV).
Impacto nos produtores
Os produtores se beneficiam da IA de várias maneiras. Ferramentas de IA que auxiliam na correção de afinação, mixagem e masterização agilizam o processo de produção. Instrumentos virtuais e sintetizadores alimentados por IA, como o Watson Beat da IBM, podem criar novos sons e texturas que expandem as possibilidades criativas.
A IA em plataformas de streaming não é apenas um benefício para os ouvintes; também ajuda os produtores, criando um público mais amplo. No entanto, assim como os músicos estão preocupados, a capacidade da IA de imitar o estilo de artistas estabelecidos levanta questões éticas e legais sobre a exploração das vozes e estilos únicos dos artistas. Isso resultou em disputas legais, como processos de grandes empresas de música como Universal, Sony e Warner contra startups de IA como Suno e Udio por supostamente usar obras protegidas por direitos autorais para treinar seus modelos sem permissão.
Gerenciando bibliotecas de música com ferramentas integradas com IA como o MusicBrainz Picard
Explorámos brevemente algumas aplicações da IA na música, compreendendo o seu impacto nos diferentes intervenientes da indústria musical. Agora, vamos compreender uma aplicação mais específica da IA na música: Ferramentas de gestão musical com IA, como o MusicBrainz Picard. Estas ferramentas são incrivelmente úteis para organizar e gerir bibliotecas de música digital.
Fig 5. As bibliotecas de música podem ser gerenciadas usando IA.
Identificam e etiquetam automaticamente os ficheiros de música com metadados precisos, tais como nomes de artistas, títulos de álbuns e números track . O MusicBrainz Picard facilita a manutenção de colecções de música bem organizadas. Uma das principais tecnologias integradas no MusicBrainz Picard são as impressões digitais de áudio AcoustID. Estas impressões digitais identificam ficheiros de música com base no seu conteúdo áudio real, mesmo que os ficheiros não tenham metadados.
Porque é que isto é tão importante? Grandes organizações como a BBC, Google, Amazon, Spotify e Pandora confiam nos dados do MusicBrainz para melhorar os seus serviços relacionados com a música. Os metadados criados por ferramentas como o MusicBrainz Picard são cruciais para os programadores que criam bases de dados de música, aplicações de etiquetagem ou outro software relacionado com música. A espinha dorsal da IA são os dados e, sem ferramentas como o Picard, seria muito difícil ter os dados limpos e exactos necessários para a análise e o desenvolvimento de aplicações. É fascinante que as ferramentas melhoradas pela IA utilizem a IA e ajudem a criar os dados necessários para as aplicações de IA, formando um ciclo benéfico de melhoria e inovação.
Notas finais sobre IA na música
Discutimos as ondas que a IA na música está causando. O cenário jurídico em torno da música gerada por IA também está evoluindo. As regulamentações atuais, como as do U.S. Copyright Office, estipulam que obras geradas inteiramente por IA não podem ser protegidas por direitos autorais, pois carecem de autoria humana. No entanto, se um humano contribuir significativamente para o processo criativo, a obra poderá se qualificar para proteção de direitos autorais. À medida que a IA continua a se integrar à indústria musical, discussões legais e éticas contínuas serão vitais para enfrentar esses desafios. Olhando para o futuro, a IA tem um tremendo potencial na música, combinando tecnologia com criatividade humana para expandir as possibilidades na criação e produção musical.