Desde que escrevi sobre a criação e o armamento de vídeos deepfake em outubro de 2020, a situação piorou. No início deste mês, vários prefeitos europeus receberam videochamadas de Vitali Klitschko, prefeito de Kyiv. Essas chamadas acabaram sendo imitações, geradas por trapaceiros. A prefeita de Berlim, Franziska Giffey, foi um desses destinatários e disse aos repórteres que a pessoa nessas ligações parecia e soava como Klitschko, mas ele não era um participante real.
Quando as autoridades de Berlim checaram com seu embaixador, eles foram informados de que Klitschko não estava ligando para ela. Ligações falsas para outros prefeitos em toda a Europa já foram encontradas por repórteres.
Essas chamadas eram deepfakes?
Difícil dizer com certeza. Uma reportagem alemã afirma que as imagens foram meramente copiadas e não geradas por computador. Mas não importa quais técnicas foram usadas, os deepfakes estão claramente ficando melhores e mais perniciosos. O FBI emitiu recentemente este aviso, dizendo que eles estão sendo usados para se candidatar a entrevistas de trabalho remoto.
Não está claro por que alguém se daria ao trabalho de fazer e falsificar essas ligações, além de perder muito tempo. Nossa postagem no blog de 2020 menciona alguns outros motivos, como intenção criminosa ou vingança, mas nenhum desses cenários parece se encaixar.
E, infelizmente, a situação é tal que eles podem ser relativamente fáceis de construir, especialmente se você estiver fazendo uma videochamada para alguém que não o conhece muito bem ou não está prestando atenção para verificar adequadamente a chamada.
No final de 2021, Shelly Palmer catalogou os vários algoritmos que podem ser usados para produzir esses vídeos, e essa lista mais recente adiciona alguns outros. Este vídeo de instruções mostra as etapas envolvidas, não que você deva tentar isso por conta própria. Hany Farid, professor da Universidade da Califórnia, em Berkeley, desenvolveu uma ferramenta que pode ser usada para determinar se um vídeo de Zelensky é real ou falso.
Um post que li sobre a ética da “mídia sintética” (ou seja, o que as pessoas que escrevem os algoritmos deepfake chamam seu produto de trabalho para torná-lo mais legítimo) comparou o mundo deepfake com a introdução da câmera Kodak back 130 anos atrás. Naquela época, as pessoas estavam preocupadas com a manipulação de imagens por fotógrafos novatos e se poderíamos usar fotos para mostrar algo além do estado literal e “real” do mundo.
Os cenários apocalípticos não se materializaram naquela época e, como você sabe agora, todos andamos com câmeras digitais que carregam várias lentes e filtros de efeito embutidos que anteriormente só eram encontrados nos equipamentos profissionais de ponta.
Como mencionei em 2020, a mídia social não está ajudando a situação, e o que costumava levar dias ou semanas para chegar a qualquer aviso viral agora é rapidamente amplificado em horas ou até minutos. Infelizmente, as plataformas sociais não assumiram nenhuma posição de liderança ou melhoraram em ser mais proativas na detecção e remoção de deepfakes.
As videochamadas de prefeito para prefeito são um aviso a todos nós para não aceitarmos coisas sem a devida verificação, especialmente quando se trata de indivíduos bem conhecidos (ou semi-conhecidos). Desconfie e verifique antes de tomar qualquer ação em particular.
Acredito que o futuro da prevenção de deepfakes será um futuro em que vídeos e outros conteúdos serão verificados e certificados na internet. Isso pode funcionar, pois as pessoas terão carteiras digitais com dados armazenados neles, verificando sua identidade.
Ao enviar conteúdo de vídeo mostrando pessoas e rostos, ele só será confiável se verificado. Em um mundo ideal, plataformas como YouTube, Instagram e TikTok permitirão ou até exigirão a verificação de imagens e vídeos, então os deepfakes serão coisa do passado.O mesmo vale para aplicativos de videochamadas como Microsoft Teams e Zoom, que devem fornecer meios de verificação de pessoas em chamadas ao vivo.
Dito isso, a questão dos deepfakes certamente piorará antes de melhorar; Embora haja indicações de que o vídeo de Klitschko pode realmente não ter sido um deepfake, os principais políticos sendo enganados por meia hora com um vídeo falso mostram que futuras tentativas de videochamada deepfake podem realmente ser bem-sucedidas.
Este exemplo proeminente é assustador, mas também pode ter um efeito educacional para muitos, para ter cuidado com qualquer conteúdo de vídeo, pois mesmo que pareça ao vivo, pode ser manipulado.”







