Música com IA: Lyria 3 e ElevenMusic transformam criação musical
O hit que você não compôs
Eram 23h de uma terça-feira quando meu marido virou para mim e disse: “Preciso de uma música para o trailer do jogo do meu amigo. O tema é space western com saxofone.” Ele abriu o Gemini no celular, digitou “synthwave noturno com sax melancólico, bateria eletrônica seca, clima de perseguição em Júpiter” e, em 30 segundos, o Gemini rodou o Lyria 3 e entregou uma faixa com letra, vocais, arranjo e até capa. Nós dois ficamos olhando para o telefone como quem acabasse de ver um mágico puxar um coala da cartola. Não era um coala. Era uma música. E não era ruim.
Isso foi em fevereiro de 2026, semana do lançamento do Lyria 3. Cinco semanas depois, a ElevenLabs soltou o ElevenMusic no iOS, e a métrica que importava já não era mais “conseguimos gerar música”, mas “quantas músicas por dia você pode criar de graça” — sete, no caso do ElevenMusic. De repente, qualquer pessoa com um prompt e uma conexão virou compositora. O estúdio musical virou um app.
O que Lyria 3 e ElevenMusic fazem de fato
Vamos separar o marketing da realidade. O Lyria 3 é o modelo do Google DeepMind integrado ao Gemini que gera faixas de 30 segundos com vocais, letra e arranjo a partir de texto, imagem ou vídeo. Ele entende estrutura musical — verso, refrão, ponte — e aplica SynthID, uma marca d’água que identifica o conteúdo como gerado por IA. O ElevenMusic, por sua vez, é o app da ElevenLabs que transforma prompts de texto em músicas completas e permite remixar faixas de outros usuários. A assinatura Pro sai por US$ 9,90 mensais e libera até 500 faixas por mês.
Os dois modelos representam um salto concreto. Suno e Udio abriram o caminho em 2023-2024, mas Lyria 3 e ElevenMusic trazem algo que faltava: integração com ecossistemas maiores e, no caso do ElevenMusic, uma curadoria com estações temáticas (Focus, Chill, Late Night, Cosmic) que fazem o app parecer mais um serviço de streaming do que uma ferramenta de criação.
Testei os dois lado a lado. O Lyria 3 entende melhor nuances de gênero e instrumentação; o ElevenMusic se sai melhor com vocais expressivos e refrãos grudentes. Nenhum dos dois substitui um produtor musical de verdade — mas ambos substituem a desculpa de “não sei fazer música”.
Co-criação humano-máquina: o caso VIBESYNK
A diferença entre usar uma ferramenta e co-criar com IA é o que separa alguém que pede um beat no ElevenMusic de alguém que constrói um universo sonoro em parceria com a máquina. É aí que entra o VIBESYNK, projeto do músico e pesquisador Guilherme Godoy, que trata a IA não como um gerador de música, mas como uma parceira criativa.
No VIBESYNK, o produtor define o universo emocional, a narrativa e as referências estéticas — e a IA responde dentro desse contexto, propondo elementos que o artista talvez nunca chegasse sozinho. “A autenticidade artística passa a residir na capacidade de curar, direcionar e misturar”, diz Godoy. O fluxo é iterativo: prompt, geração, seleção, refinamento, humanização. A máquina sugere; o humano decide. O resultado é uma faixa como KOSMOS: Genesis Rising, que soa como parte de um universo maior — porque é.
Essa abordagem é o oposto de apertar um botão e publicar o resultado. Exige direção artística, curadoria e, acima de tudo, intenção. A IA não substitui o olhar — ela amplia o alcance dele.
Os dilemas: autoria, direitos, homogeneização
Tudo isso é lindo até alguém perguntar: de quem é essa música? Se eu escrevo o prompt e o Lyria 3 gera a melodia, quem é o autor? O Google? Eu? O engenheiro que treinou o modelo? A pergunta não é acadêmica. Em 2026, o mercado fonográfico ainda opera com as categorias do século XX — compositor, intérprete, produtor — e a IA não se encaixa em nenhuma delas.
O SynthID ajuda a identificar o que foi gerado por IA, mas não resolve o problema de direitos sobre melodias. Se o ElevenMusic gera um refrão que soa idêntico a uma música protegida — e isso vai acontecer, é uma questão de probabilidade — quem responde? O usuário que digitou o prompt ou a empresa que treinou o modelo com dados sob licença?
Fora isso, tem o risco real de homogeneização estilística. Se milhares de pessoas usam os mesmos modelos treinados nos mesmos dados, a música gerada tende a um ponto médio — um pop genérico que agrada a todos e emociona ninguém. Sem curadoria, a IA reproduz o que já funciona, empobrecendo a diversidade musical.
O novo papel do artista como diretor criativo
Se 2025 foi o ano em que a geração de imagem virou commodity, 2026 é o ano em que a música gerada por IA sai do nicho e vira item de prateleira digital. Lyria 3 e ElevenMusic não são o fim da música como conhecemos — são o fim da desculpa de que “criar música é difícil demais”.
O que sobra para o artista humano? A direção. A curadoria. O gosto. A capacidade de olhar para o que a máquina gerou e dizer “isso funciona” ou “isso não funciona”, e saber por quê. O músico do futuro próximo não precisa mais saber tocar todos os instrumentos — precisa saber ouvir. E, ironicamente, isso sempre foi o mais difícil.
O estúdio agora cabe no bolso. O que você faz com ele é que ainda não cabe em prompt nenhum.