O Google e a Universal Music, juntamente com outras empresas do setor musical, podem estar discutindo acordos para autorizar o uso de vozes e composições de artistas em músicas criadas por inteligência artificial (IA).
Este desenvolvimento, inicialmente relatado pelo Financial Times, emerge à medida que a indústria da música enfrenta novos desafios e oportunidades na monetização de músicas de alto risco geradas pela AI.
Negociando a música gerada por IA
A tecnologia que pode replicar de forma convincente as vozes dos artistas estabelecidos tem sido uma preocupação urgente para as corporações da música.
Em resposta, o Google e a Universal Music podem estar em conversações iniciais para permitir que os fãs criem faixas legalmente usando vozes geradas pela AI enquanto pagam os legítimos proprietários de direitos autorais. Os artistas teriam a opção de participar.
Com canções que já imitam vozes como Frank Sinatra ou Johnny Cash, a questão não é mais uma ameaça distante, mas uma realidade atual. O objetivo agora seria trazê-lo para uma estrutura monetizável.
Cantores como Drake e Taylor Swift foram destaque em músicas criadas por inteligência artificial que se tornaram populares.
Uma linha fina entre inovação e infração
À medida que a IA ganha tração na indústria da música, alguns músicos expressaram preocupação de que seu trabalho pode ser diluído por versões falsas de suas músicas e vozes.
Outros, como o artista eletrônico Grimes, abraçaram a tecnologia.
Para o Google, criar um produto de música alimentado pela AI poderia ajudar a empresa a competir com rivais – como Meta – que também estão desenvolvendo produtos de áudio AI.
No entanto, a questão do licenciamento e dos direitos autorais na idade da música gerada pela IA é muito mais complexa.
As empresas enfrentarão um desafio complexo ao buscar conciliar o respeito aos direitos dos artistas, a exploração dos limites da inovação em inteligência artificial e a obtenção de lucro.
MusicLM: Música Gerada por IA de alta qualidade do texto
Em notícias relacionadas, o Google introduziu o MusicLM em janeiro. Os usuários podem se inscrever para testar o MusicLM na AI Test Kitchen em maio.
Através da inserção de comandos como “música de jazz para um jantar com atmosfera sombria”, os participantes do experimento podem experimentar duas variações de uma música e indicar qual gostaram mais, contribuindo para a melhoria do sistema.
As capacidades do modelo vão mais além em que pode ser condicionado em texto e melodia, transformando músicas assobiadas e humedadas de acordo com o estilo descrito em uma legenda de texto.
Enquanto MusicLM é uma ferramenta experimental para gerar música sintética para inspiração, tem certas restrições.
Consultas que fazem menção a artistas ou contêm vocais específicos não serão atendidas, e os usuários são incentivados a dar feedback caso ocorram problemas com o som produzido.
Pode ser aí que entra em jogo uma parceria com a Universal Music. A Warner Music, outra editora significativa, também pode estar em conversas com o Google por razões semelhantes.
AudioCraft da Meta
No início de agosto, Meta anunciou AudioCraft como uma nova ferramenta para músicos e designers de som, potencialmente moldando como produzimos e consumimos áudio e música.
AudioCraft consiste em três modelos primários: MusicGen, AudioGen e EnCodec. MusicGen, apoiado pela música Meta-licensed, facilita a criação de música a partir de prompts de texto. AudioGen, treinado em efeitos sonoros públicos, traz o texto à vida através de sons como um cão latido ou carros buzinando.
A empresa está permitindo que pesquisadores e profissionais tenham acesso aberto a esses modelos, possibilitando o treinamento de seus próprios modelos pela primeira vez. Essa iniciativa busca impulsionar o avanço do campo de áudio e música gerada pela inteligência artificial.
A excitação em torno da AI generativa surgiu, mas o áudio tem travado. O áudio de alta fidelidade requer modelagem de sinais e padrões complexos, tornando a geração de música incrivelmente desafiadora.
Meta espera que a família AudioCraft simplifica este processo. Sua estrutura aberta pode permitir que os indivíduos para construir melhores geradores de som, algoritmos de compressão ou geradores de música.
O futuro da música gerada por AI
Negociações recentes e desenvolvimentos do Google e Meta marcam saltos significativos na IA, abrindo portas para profissionais de música, entusiastas e criadores de conteúdo para explorar novos horizontes criativos.
Parece claro que as grandes empresas de tecnologia querem ser o primeiro a lançar plataformas fáceis de usar que traduzem ideias em realidade musical.
O desenvolvimento também sugere a direção futura da AI na música, oferecendo insights sobre oportunidades e riscos potenciais.
Imagem em destaque: Sundry Photography/Shutterstock