.
Scott Mann tinha um problema: muitos f-bombas.
O roteirista e diretor passou a produção de “Fall”, seu thriller vertiginoso sobre alpinistas presos no topo de uma torre de TV remota, encorajando os dois protagonistas a se divertirem com o diálogo. Essa improvisação conseguiu impressionantes 35 “f-cks” no filme, colocando-o firmemente em território classificado como R.
Mas quando a Lionsgate assinou contrato para distribuir “Fall”, o estúdio queria uma edição PG-13. Higienizar o filme significaria esfregar todos menos um das obscenidades.
“Como você resolve isso?” Mann relembrou da sala de conferências envidraçada de seu escritório em Santa Monica em outubro, dois meses após a estreia do filme. Um abutre que ele havia roubado do set estava empoleirado no saguão.
As refilmagens, afinal, são caras e demoradas. Mann filmou “Fall” no topo de uma montanha, ele explicou, e lutou não apenas com COVID, mas também com furacões e tempestades com raios. Uma colônia de formigas-lava-pés fixou residência dentro do cenário principal do filme, um tubo de metal de trinta metros de comprimento, em um ponto; quando a equipe os acordou, o enxame envolveu o set “como uma nuvem”.
“’Fall’ foi provavelmente o filme mais difícil que já fiz”, disse Mann. Ele poderia evitar um redux?
A solução, ele percebeu, poderia ser apenas um projeto que estava desenvolvendo em conjunto com o filme: um software artificialmente inteligente que pudesse editar imagens dos rostos dos atores bem depois que a fotografia principal tivesse terminado, alterando perfeitamente suas expressões faciais e movimentos da boca para corresponder ao diálogo recém-gravado.
“Fall” foi parcialmente editado usando um software desenvolvido pela empresa de inteligência artificial Flawless, do diretor Scott Mann. (Cortesia de Flawless)
É um uso enganosamente simples para uma tecnologia que, segundo especialistas, está prestes a transformar quase todas as dimensões de Hollywood, desde a dinâmica do trabalho e modelos financeiros até como o público pensa sobre o que é real ou falso.
A inteligência artificial fará com as imagens em movimento o que o Photoshop fez com as imagens estáticas, disse Robert Wahl, professor associado de ciência da computação na Concordia University Wisconsin, que escreveu sobre a ética do CGI, em um e-mail. “Não podemos mais confiar totalmente no que vemos.”
Uma solução de software para dublagens duvidosas
Foi necessária uma colaboração particularmente desanimadora com Robert De Niro para empurrar Mann para o mundo do software.
De Niro estava participando do thriller policial de Mann em 2015, “Heist”, e os dois dedicaram muito tempo e reflexão à atuação do aclamado ator. Mas quando chegou a hora de adaptar o filme para lançamentos no exterior, disse Mann, ele ficou insatisfeito.
Quando os filmes são lançados no exterior, os diálogos costumam ser regravados em outros idiomas. Esse processo, chamado de “dublagem”, torna o filme acessível internacionalmente, mas também pode levar à visão chocante da boca de um ator balançando fora de sincronia com as palavras que supostamente estão dizendo. Uma solução típica é reescrever o diálogo para que ele combine melhor com os visuais pré-existentes – mas, por uma questão de legibilidade, essas mudanças sacrificam a visão original da equipe criativa.
“Todas as coisas que eu trabalhei em nuances com Robert De Niro agora foram alteradas”, disse Mann sobre as dublagens. “Fiquei meio arrasado.”
Um filme seguinte no qual ele trabalhou, “Final Score”, aprofundou essas frustrações. Mann tentou escanear a cabeça dos membros do elenco para sincronizar melhor a fala deles, mas o processo provou ser proibitivamente caro e o resultado final pareceu estranho.
Não foi até pesquisar soluções mais inovadoras que o entusiasta de efeitos visuais encontrou um artigo acadêmico de 2018 descrevendo uma possível solução: redes neurais, ou programas de computador que imitam a estrutura de um cérebro, que buscavam transpor a expressão facial de um ator para o rosto de outro.
Fascinado, Mann entrou em contato com os autores do artigo e começou a colaborar com alguns deles em uma ferramenta rudimentar de “vubbing” – ou seja, dublagem visual, em vez de áudio. A adição subsequente de Nick Lynes, um amigo de um amigo com experiência em jogos online, também deu à equipe uma posição no setor de tecnologia.
Juntos, os enviados de três mundos muito diferentes – cinema, ciência e indústria de software – construíram Flawless, um empreendimento de produção de filmes de IA com escritórios em Santa Monica e Londres.
Em termos muito amplos, a tecnologia da empresa pode identificar padrões nos fonemas de um ator (ou nos sons que eles fazem) e visemas (ou como eles se parecem quando estão fazendo esses sons) e então – quando apresentados a fonemas recém-gravados – atualizar os visemas na tela para combinar. No ano passado, a revista Time considerado a “correção para dublagem de filmes” da empresa é uma das melhores invenções de 2021.
A luta para remover dezenas de bombas f de “Fall”, no entanto, apresentou uma questão com ramificações potencialmente muito mais amplas: em vez de apenas mudar o idioma que os personagens falavam, Flawless poderia alterar o próprio conteúdo do que eles disseram?
“Fomos a um estúdio de gravação em… Burbank com as atrizes e dissemos: ‘Tudo bem, aqui estão as novas falas’”, disse Mann, que mora em Los Angeles. Em seguida, eles conectaram o novo áudio ao software vubbing, que ajustou os movimentos faciais das estrelas na tela de acordo.
“Colocamos as tomadas, a MPAA revisou e deu PG-13, e foi isso que chegou aos cinemas”, disse ele.
Sentado em sua sala de conferências em Santa Monica várias semanas após o lançamento do filme, cercado por pôsteres de “Blade Runner” e “2001: Uma Odisséia no Espaço”, Mann exibiu os resultados com uma cena em que um dos protagonistas de “Fall” lamenta sua situação. .
“Agora estamos presos nesta maldita torre estúpida no meio do maldito lugar nenhum!” Virginia Gardner exclamou para Grace Caroline Currey enquanto as duas se amontoavam no topo de uma plataforma precariamente elevada.

Virginia Gardner e Grace Caroline Currey em “Fall”.
(Lionsgate)
Um momento depois, Mann repetiu a cena. Mas desta vez, o diálogo de Gardner foi visivelmente mais duro: “Agora estamos presos nesta porra de torre estúpida no meio da porra de lugar nenhum”.
A primeira versão foi a que saiu em agosto para sobre 1.500 teatros americanos. Mas o último – aquele com diálogo adequado para um marinheiro – foi o que Mann realmente filmou naquele topo de montanha infestado de formigas de fogo. Se você não soubesse que uma rede neural havia reconstruído os rostos dos atores, provavelmente não teria ideia de que o diálogo limpo foi uma adição tardia.
“Você não pode dizer o que é real e o que não é”, disse Mann, “que é a coisa toda”.
A ética dos sintéticos
Quando se trata de cinema, esse realismo tem benefícios óbvios. Ninguém quer gastar dinheiro em algo que parece ter saído do MS Paint.
Mas o surgimento de um software que pode mudar perfeitamente o que alguém parece ter dito tem grandes implicações para um ambiente de mídia já inundado de desinformação. O produto principal da Flawless é, afinal, essencialmente apenas uma versão mais legítima de “deep-fakes”, ou CGI que imita o rosto e a voz de alguém.
Não é difícil imaginar um troll que, em vez de usar essas ferramentas para cortar palavrões de um filme, faça um vídeo viral de Joe Biden declarando guerra à Rússia. A pornografia feita com a imagem digital de alguém também se tornou um problema.
E a Flawless não é a única empresa que trabalha neste espaço. A Papercup, uma empresa que gera vozes humanas sintéticas para uso em dublagens e locuções, pretende “tornar qualquer vídeo assistível em qualquer idioma”, disse o executivo-chefe Jesse Shemen ao The Times.
E o esteio dos efeitos visuais, Digital Domain, usa aprendizado de máquina para renderizar atores em casos em que eles não podem aparecer, como cenas que exigem um dublê, disse o diretor de tecnologia Hanno Basse.
À medida que essas e outras empresas automatizam cada vez mais a indústria do entretenimento, surgem muitas questões éticas.
Hollywood já está avaliando sua recém-descoberta capacidade de recriar digitalmente atores mortos, como acontece com A voz de Anthony Bourdain no documentário “Roadrunner” ou Peter Cushing e Carrie Fisher nas recentes sequências de “Guerra nas Estrelas”. Renascimentos holográficos de celebridades tardias também são agora possíveis.
O diálogo alterado digitalmente “corre o risco de comprometer o consentimento daqueles originalmente envolvidos”, disse Scott Stroud, diretor do programa de ética da mídia da Universidade do Texas em Austin. “O que os atores pensaram que estavam concordando não é literalmente o que é criado.”
E essa tecnologia pode abrir a porta para que os filmes sejam alterados muito depois de serem lançados, disse Denver D’Rozario, professor de marketing da Howard University que estudou a ressurreição de atores mortos por software.
“Digamos… em um filme, um cara está bebendo uma lata de Pepsi, e daqui a 20 anos você recebe o patrocínio da Coca-Cola”, disse D’Rozario. “Você troca a lata de Pepsi por Coca-Cola?” “Em que ponto as coisas podem ser mudadas? Em que ponto as coisas podem ser compradas?”
Mann disse que as vantagens de sua tecnologia são muitas, desde quebrar as barreiras linguísticas e fomentar a empatia internacional até poupar os atores da dor de cabeça das refilmagens. Em sua opinião, cenários como o hipotético patrocínio da Coca-Cola de D’Rozario representam novos fluxos de receita.
A Flawless tem sido proativa, acrescentou Mann, sobre a construção de um produto que ajuda em vez de suplantar o desempenho humano autêntico.
“Existe uma maneira de utilizar as tecnologias de maneira semelhante à [visual effects] a indústria já estabeleceu, que é assim: faça com segurança, faça certo, faça legalmente, com consentimento de todos os envolvidos”, disse.
E a empresa já envolveu “todos os grandes sindicatos” sobre como fazer e usar essa tecnologia de maneira sensata, continuou o diretor.
Os representantes do SAG-AFTRA enfatizaram que a tecnologia de filmagem de IA pode ajudar ou prejudicar os atores, dependendo de como é usada.
“As tecnologias que fazem pouco mais do que aprimorar digitalmente o trabalho de nossos membros podem exigir apenas a capacidade de fornecer consentimento informado e, possivelmente, remuneração adicional”, disse Jeffrey Bennett, conselheiro geral da SAG-AFTRA, em um e-mail. “No outro extremo do espectro estão as tecnologias que podem substituir o desempenho tradicional ou que pegam o desempenho de nossos membros e criam outros totalmente novos; para estes, mantemos que são um assunto obrigatório de negociação.”
É um trem que, bem ou mal, já saiu da estação.
“Fall” está sendo transmitido atualmente, e Mann disse que outros filmes em que sua empresa trabalhou serão lançados neste Natal – embora ele ainda não possa nomeá-los publicamente.
Se você assistir a um filme durante as férias, uma IA pode ter ajudado a criá-lo.
Você será capaz de dizer? Isso importaria?
.