Em meio ao caos causado pelas imagens deepfake, agora também temos que lidar com a ameaça da música deepfake.
Novas músicas de artistas famosos estão se tornando virais nas redes sociais, o que normalmente não é um problema, exceto quando um clone de voz é quem canta. Embora tenha sido um dos últimos meios a resistir, a música deepfake agora é uma realidade.
Ele funciona treinando um modelo de IA na voz de um cantor, e os resultados nem sempre são ruins. Há muita criatividade real na criação de músicas deepfake, mas o problema não é apenas com a saída. Em muitos casos, a permissão não é concedida, e questões sobre quem é pago e se é ético são apenas alguns dos problemas da música deepfake.
1. Conjuntos de dados não autorizados
Se você deseja criar uma faixa deepfake de um artista famoso, precisa reunir os arquivos de áudio de sua voz cantada em um conjunto de dados. Assim como qualquer dado que pertence a alguém, você provavelmente deve obter permissão para usá-lo, mas um deepfake música pode chegar a uma grande plataforma de música como YouTube, Spotify ou TikTok, tendo usado um não autorizado conjunto de dados.
Isso aconteceu com os artistas Drake e The Weeknd quando um usuário chamado Ghostwriter criou "Heart on My Sleeve". A música de sucesso apresentava as vozes dos artistas sintetizadas por IA, completas com letras sobre a ex-namorada de The Weeknd.
A música foi genuinamente apreciada pelos fãs, com elogios adicionais para o Ghostwriter pelo uso criativo dos vocais deepfake, mas como O Seattle Times relatou, nem todos viam dessa forma. Um porta-voz da Universal Music Group, a maior gravadora por trás de ambos os artistas, pergunta:
"De que lado da história as partes interessadas no ecossistema da música querem estar: do lado dos artistas, fãs e expressão criativa humana, ou do lado de deep fakes, fraudes e negando aos artistas sua devida compensação?"
2. Lei de direitos autorais desatualizada
Se você é um artista que não quer que sua voz seja clonada, a lei de direitos autorais pode não ser capaz de ajudá-lo ainda. Como nossas leis de direitos autorais foram escritas em uma época em que esse tipo de tecnologia de IA não existia, não é surpresa que as leis ainda estejam tentando alcançá-las.
O caso legal mais próximo de "roubo de voz" nos EUA remonta à década de 1990. Como relatado por Los Angeles Times, o cantor Tom Waits ganhou $ 2,475 milhões em danos da Frito-Lay Inc., a poderosa gigante dos chips por trás de Doritos, Cheetos, Cracker Jack's e muito mais.
O anúncio usava a voz de alguém que parecia próximo o suficiente de Tom Waits para que as pessoas acreditassem que o verdadeiro artista estava por trás da campanha publicitária. O mesmo pode ser dito das músicas deepfake que estão circulando atualmente, mas a música AI ainda não foi testada em uma batalha legal.
Enquanto esperamos a atualização do sistema legal, vale a pena notar que nem todo mundo tem problemas com pessoas que clonam sua voz, tome Holly Herndon, por exemplo. Enfrentando a onda de aplicativos de música de IA, ela optou por autorizar sua irmã gêmea chamada Holly + junto com um sistema que lhe dava uma remuneração justa.
Seja qual for o lado que você tome, o problema permanece o mesmo. Não existe uma lei de direitos autorais específica que diga que você precisa obter permissão do artista antes de usar a voz dele. Até então, os artistas podem se encontrar no oeste selvagem da tecnologia de IA, sem leis para guiá-los.
3. Quem é pago?
Tudo bem ganhar dinheiro com música usando a voz de alguém? É uma questão espinhosa que pode se tornar um problema maior à medida que mais músicas deepfake são publicadas em plataformas de streaming e monetizadas em plataformas de mídia social.
Como todos sabemos, não há problema em cantar um cover de uma música famosa e postar no YouTube ou Spotify e, nesse caso, coisas como a letra, a estrutura da música, a melodia, o ritmo etc. são copiados. Mas os clones vocais são bem diferentes, e a música deepfake não é exatamente um riff de uma música existente, mas a criação de uma música totalmente nova usando a voz de outra pessoa.
Em outras palavras, os clones de voz não existiriam se não fossem as ferramentas de IA e os conjuntos de dados não autorizados. Os artistas passam a vida inteira aprimorando a voz com a qual nasceram e criando um som único. Roubar a voz de alguém e ganhar dinheiro com isso pode ser um passo longe demais.
4. Um gênero de área cinzenta
Para complicar as coisas, algumas pessoas podem não ver a música deepfake como totalmente ruim. Ao contrário das imagens ou vídeos deepfake dos quais você pode rir brevemente antes de passar pelo telefone, a música deepfake está se desenvolvendo em direção a um gênero próprio.
Algumas pessoas comparam isso com a ideia de escrever fanfiction, uma forma divertida e criativa de homenagear um artista. É uma visão mais positiva que torna difícil descartar a música deepfake simplesmente como um tabu. Basta dar uma olhada na abordagem de Holly Herndon para clonagem de voz AI no vídeo abaixo.
Embora nem todos concordem que esse tipo de música deva ser permitido. Como O Financial Times escreve, a grande gravadora, Universal Music Group, pretendia remover músicas de qualidade inferior de plataformas de streaming, incluindo aquelas criadas por IA. Eventualmente, plataformas de streaming como Spotify, Apple Music ou Tidal terão que decidir se esse gênero de música é permitido em sua plataforma.
A música deepfake está provocando debates semelhantes que já estão acontecendo no mundo da arte: a arte gerada por IA deve ser considerada arte? Só que agora estamos questionando a música AI.
5. Preocupações éticas em torno de raça e identidade
A era da música deepfake começou com muita música que imita o rap. Com as raízes históricas do gênero remontando à juventude afro-americana crescendo no Bronx, na cidade de Nova York, no início dos anos 1970, algumas pessoas estão preocupadas com raça e identidade na música de IA.
Escritor Lauren Chanel, é uma pessoa que considera a música deepfake um problema sério. Como citado em um artigo do New York Times, eles explicam:
“É outra maneira de as pessoas que não são negras vestirem a fantasia de uma pessoa negra – colocar as mãos para cima de Kanye ou Drake e torná-lo uma marionete – e isso é alarmante para mim.” “Este é apenas mais um exemplo em uma longa lista de pessoas que subestimam o que é necessário para criar o tipo de arte que, historicamente, os negros fazer."
Esta não é a primeira vez que a música criada com ferramentas de IA falha em ser ética. Como relatado na revista Rolling Stone, um rapper de avatar virtual chamado FN Meka assinou contrato com uma gravadora e rapidamente caiu quando civil online o grupo de direitos autorais Industry Blackout escreveu que o projeto perpetuou "estereótipos grosseiros" sobre Back cultura.
No mínimo, a música deepfake nos lembra que as ferramentas de IA não podem ser separadas da história da criação musical, e ignorar isso aumenta os perigos dos deepfakes de IA.
6. Causando danos aos artistas
Uma coisa que não deve ser negligenciada é o impacto emocional que uma música deepfake pode ter no artista, especialmente quando um clone de voz podem cantar sobre situações que nunca aconteceram, expressar emoções que não são suas e fingir que se importam com coisas que talvez não.
No caso da música falsa do Drake ft. The Weeknd, as letras incluíam falas sobre Selena Gomez, que namorou The Weeknd. Usando uma mistura de fatos da vida real e letras inventadas, foi uma estranha distorção da realidade que pode ser prejudicial para o artista que viveu a experiência real.
De forma similar, produzindo letras geradas por IA "no estilo de" alguém famoso usando geradores de texto AI levou alguns artistas a se desesperarem com o uso da tecnologia AI. Como diz Nick Cave, "O que ChatGPT é, neste caso, é replicação como farsa."
A música deepfake é capaz de colocar palavras na boca do artista que ele nunca falou, ou neste caso, cantou. No nível pessoal, isso pode ser prejudicial para o artista que tem pouco controle sobre a remoção do conteúdo, sem levar a batalha judicialmente.
Preparando-se para mudanças na indústria da música
Graças ao crescente acesso a ferramentas de IA, a música entrou no mundo dos deepfakes, em particular, por meio de clones de voz. Dizer a diferença entre uma voz de IA e uma voz humana apenas ouvindo é extremamente difícil, tornando mais fácil para uma música deepfake chegar às plataformas de streaming antes de ser removida.
Por um lado, os fãs podem gostar de música deepfake e pode surgir um gênero válido que usa vozes famosas para criar músicas novas e interessantes. Mas nem todo artista concorda em ter sua voz clonada, e não há leis que impeçam as pessoas de criar conjuntos de dados não autorizados.
Obter consentimento, remunerar artistas e investigar questões éticas são apenas alguns dos problemas que os artistas e a indústria da música enfrentam. Com o rápido desenvolvimento da tecnologia de IA, vale a pena fazer uma pausa para refletir sobre os problemas que eles criaram.