Em 6 de junho de 2022, Chris Umé e Thomas Graham, os fundadores da Metaphysic, se juntaram ao palco do America's Got Talent com Daniel Emmet. Usando a tecnologia desenvolvida pela Metaphysic, Daniel Emmet cantou "You're the Inspiration" usando a imagem do juiz da AGT Simon Cowell ao vivo no palco.
Esta performance surpreendeu os juízes e capturou a multidão, resultando em quatro sims. O grupo está avançando para a próxima rodada da AGT - mas o que o uso da tecnologia deepfake significa para o futuro do entretenimento?
O que aconteceu no palco AGT?
Os principais concorrentes para o show foram Chris e Thomas. Quando se apresentaram, disseram:
“Usamos inteligência artificial para criar conteúdo hiper-real.”
Eles então trouxeram Daniel Emmet para o palco. Quando Simon perguntou como ele entrou com a dupla, ele disse:
“Sou fã do que eles fazem online e eles são fãs da AGT. E quando eles me pediram para fazer parte dessa coisa maravilhosa, única e original que eles vão fazer, eu não pude dizer não.”
Então, com todo o mistério em torno do trio, Cowell desejou boa sorte e eles começaram o show.
Enquanto Emmet se preparava para cantar, uma câmera entrou no palco para gravá-lo de perfil, bloqueando a visão do público (e do juiz). Quando a música começou, o feed da câmera foi ao vivo na tela do palco, onde vimos o avatar hiper-real de Simon sobreposto a David e cantando ao vivo no palco.
A multidão enlouqueceu quando viram isso, mas Simon ficou inicialmente confuso. À medida que a apresentação continuava, Cowell passou de confuso para envergonhado e entretido. Por fim, ele (e o resto do público) aplaudiu de pé o ato, e o grupo recebeu um “sim” de todos os quatro juízes.
Como os Deepfakes impactam o entretenimento
Embora os deepfakes possam parecer um novo desenvolvimento para a maioria das pessoas, esse não é o caso, especialmente em Hollywood. Concedido que esta é provavelmente a primeira vez que a tecnologia deepfake aparece em um cenário ao vivo, mas os filmes usam essa tecnologia há anos.
Um exemplo popular é o filme Velozes e Furiosos 7 de 2015, onde um dos protagonistas, Paul Walker, morreu em um acidente de carro no meio das filmagens. Em vez de matar seu personagem no filme, os produtores decidiram filmá-lo usando seus irmãos como substitutos e depois usando CGI para colocar o rosto de Paul neles.
Esta técnica também apareceu em Rogue One: A Star Wars Story em 2016, e foi aplicada a Grand Moff Tarkin e Princesa Leia. Infelizmente, o ator que interpretou o personagem, Peter Cushing, faleceu em 1994. E enquanto Carrie Fisher ainda estava viva durante as filmagens, sua aparência mudou significativamente desde 1977.
Para este filme, a produção usou dublês e tecnologia semelhante a deepfakes para recriar os personagens originais digitalmente.
E embora você possa pensar que isso é um desenvolvimento recente, você pode se surpreender ao saber que o Gladiator de 2000 também usou tecnologia semelhante. Quando um dos principais atores coadjuvantes, Oliver Reed, morreu repentinamente durante as filmagens, a produção optou por recriá-lo digitalmente enquanto usava um dublê de corpo para a filmagem real.
No entanto, essa tecnologia vai além de ressuscitar e reverter celebridades. Eles até o usaram em Capitão América: O Primeiro Vingador para trocar o corpo enorme de Chris Evan pelo corpo menor de Leander Deeny. Embora eles também tenham usado várias outras técnicas para fazer sua pequena aparição antes do experimento de Howard Stark, a tecnologia deepfake foi uma de suas ferramentas.
Como os Deepfakes podem revolucionar a indústria do entretenimento
Uma coisa que todos os exemplos acima têm em comum é que eles tiveram que gastar meses e milhões de dólares para obter o efeito que queriam alcançar. No entanto, no Palco AGT, a Metaphysic mostrou que poderia recriar outra celebridade em alta qualidade em tempo real.
Embora a saída deles no palco AGT não seja 100% realista, é próxima o suficiente da coisa real se você não olhar de perto. E uma grande coisa é que eles estão fazendo isso em tempo real. Com a forma como a tecnologia está evoluindo, em breve encontraremos um aplicativo deepfake em tempo real que pode produzir instantaneamente um vídeo realista.
O desenvolvimento pode reduzir a dependência dos estúdios de trajes de rastreamento avançados e extenso pós-processamento, simplificando ainda mais seu fluxo de trabalho de pós-produção. E enquanto criando vídeos deepfake perfeitos não é tão fácil quanto parece, você não precisa mais ser uma produtora multimilionária para pagar.
A introdução mainstream da tecnologia permitiria que estúdios menores e até cineastas independentes a adquirissem e a usassem em suas criações. Na verdade, qualquer pessoa com um smartphone pode experimente esta tecnologia através de aplicativos de troca de rosto, embora não sejam tão bons quanto no palco AGT.
O futuro dos deepfakes em filmes e TV
À medida que a tecnologia deepfake evolui, em breve poderemos encontrar um momento em que os estúdios possam facilmente usar a imagem de celebridades do passado para dar vida aos seus filmes mais recentes. Isso ajudaria a manter a continuidade, especialmente porque as produções (e os espectadores) preferem franquias de longa duração, onde enfrentam problemas com celebridades envelhecidas ou mesmo moribundas.
No entanto, esse desenvolvimento também tem outra faceta - pode ser usado para recriar a imagem de uma pessoa sem seu consentimento. Além disso, esse mesmo vídeo pode ser usado para semear medo, tensão e confusão entre as pessoas, especialmente se for de uma figura política e o deepfake não for reconhecível como tal.
Por mais que estejamos felizes com essa tecnologia no entretenimento, também devemos ter cuidado para que ela seja usada de forma ética e nunca para semear o caos.