Ciência e Tecnologia

A IA que está tornando os vídeos falsos muito convincentes

.

Ver é crer. Bem, pelo menos esse era o caso antes de percebermos que as pessoas poderiam adulterar vídeos de maneira fácil e convincente para impulsionar fraudes e reescrever a história. Embora tenhamos encontrado maneiras de desmascarar a maioria das imagens fraudulentas, há um desenvolvimento tecnológico que continua a ganhar ritmo, tornando mais difícil saber o que é real e o que é falso.


Deepfakes mudam tudo o que pensávamos ser possível em termos de vídeos adulterados. Aqui está o que você deve saber sobre o que são deepfakes, bem como os riscos que essa tecnologia traz…


O que é um deepfake?

O termo deepfakes vem de uma combinação das palavras “deep learning” e “fakes”. Isso porque um software de inteligência artificial treinado em síntese de imagem e vídeo cria esses vídeos. Portanto, a definição de deepfake é um vídeo ou imagem falsa gerada usando IA para substituir o rosto e a voz da figura retratada. Essa IA pode sobrepor o rosto de um sujeito (a fonte) em um vídeo de outro (o alvo). Enquanto isso, formas mais avançadas de tecnologia deepfake podem sintetizar um modelo completamente novo de uma pessoa usando os gestos faciais da fonte e imagens ou vídeos do sujeito que desejam representar.

A tecnologia pode criar modelos faciais com base em dados visuais limitados, como uma imagem. No entanto, quanto mais dados a IA tiver para trabalhar, mais realista será o resultado.

É por isso que políticos e celebridades são alvos tão fáceis para deepfakes, já que há tantos dados visuais disponíveis online que o software pode usar. Como o software deepfake está disponível em plataformas de código aberto, as pessoas na Internet estão continuamente refinando e desenvolvendo o trabalho de outras pessoas.

De onde vêm os deepfakes?

A tecnologia por trás dos deepfakes foi desenvolvida para uma infinidade de propósitos. Muito parecido com o Photoshop, o software tem usos profissionais, de entretenimento e amadores. E assim como o Photoshop, apesar dos criadores originais não terem intenções maliciosas ao criar o software, isso não impediu que as pessoas o usassem para fins maliciosos.

A tecnologia de troca de rosto foi inicialmente usada principalmente na indústria cinematográfica. Uma das instâncias mais famosas está no filme de 2016 Rogue One: A Star Wars Story. No filme, os cineastas usaram tecnologia de troca de rosto e síntese de vídeo para recriar o personagem Grand Moff Tarkin.

Uma versão mais jovem da Princesa Leia também foi criada no filme. Em ambos os casos, os modelos dos rostos dos atores originais foram sobrepostos aos atores substitutos.

Aplicativos como o Snapchat também usam a tecnologia de troca de rosto para criar filtros divertidos para os usuários. Os desenvolvedores por trás desses aplicativos refinam continuamente a detecção e o rastreamento de rostos para aplicar esses filtros com mais eficiência.

Outros desenvolveram ferramentas de síntese de vídeo para criar hologramas para fins educacionais. Por exemplo, um projeto desenvolveu software de vídeo e síntese facial para que o testemunho de sobreviventes do Holocausto pudesse ser apresentado como hologramas interativos em um museu.

Tecnologia deepfake avança rapidamente

O aprendizado de máquina torna a vida mais fácil, mas, neste caso, torna a falsificação significativamente mais fácil. Assim como a arte gerada por IA está mudando a indústria da arte, os deepfakes mudaram a natureza do vídeo online. Mas algumas dessas mudanças são negativas.

Em primeiro lugar, o software deepfake está disponível de forma ampla e gratuita. O FakeApp, por exemplo, é uma escolha popular para criar deepfakes. Você não precisa de habilidades avançadas para aplicar uma troca de face, o software fará isso por você.

Mas como a IA e o aprendizado profundo ajudam a criar deepfakes, a tecnologia também melhora e se torna mais convincente em um ritmo alarmante. Às vezes, essas edições não são visíveis a olho nu, tornando difícil dizer o que é real e o que não é. Existem alguns sinais indicadores para ajudá-lo a identificar um deepfake, como corte de bordas ou distorção de rostos em determinados ângulos.

Em um mundo repleto de notícias falsas, os deepfakes convincentes podem ser uma força caótica contra o que acreditamos ser verdade. A ascensão de deepfakes também está ocorrendo em um momento em que a síntese de voz AI e os geradores de voz AI também estão avançando.

A IA não apenas pode gerar vídeos falsos, mas também pode gerar modelos de voz para as pessoas. Isso significa que você não precisaria de um imitador para fazer parecer que um político está fazendo uma declaração ultrajante. Você pode treinar a IA para imitar a voz deles.

As consequências dos deepfakes

Embora você possa usar deepfakes para criar vídeos divertidos, muitas pessoas também usam deepfakes para fins maliciosos. As pessoas têm usado o FakeApp para criar vídeos falsos de celebridades em cenários comprometedores.

Além disso, na maioria dos países ainda não há leis que tratem desse tipo de conteúdo, dificultando sua regulamentação. Embora ainda estejamos longe da distopia governada pela desinformação e falsas evidências em vídeo que vemos em filmes como The Running Man, já estamos muito familiarizados com os efeitos das notícias falsas.

As consequências dos deepfakes usados ​​para fins políticos são duplas. Em primeiro lugar, torna as notícias falsas muito mais fáceis de espalhar. Os vídeos são mais prováveis ​​do que textos ou imagens para convencer as pessoas de que algo fictício realmente aconteceu. As pessoas já acreditam em manchetes de sites falsos sem nenhuma evidência.

Um exemplo de deepfakes usado para enganar as pessoas é o deepfake de 2022 que exibiu um vídeo do presidente ucraniano Volodymyr Zelenskyy dizendo às tropas para se renderem. Isso foi comprovado como falso, mas o vídeo ainda circulou nas redes sociais.

Por outro lado, os deepfakes também podem encorajar os políticos a se esquivar da responsabilidade. Eles sempre poderiam facilmente alegar que uma gravação de áudio ou vídeo é realmente um deepfake.

Como estamos lutando contra os deepfakes?

Pode ser difícil se proteger de vídeos deepfake. Mas existem maneiras pelas quais as empresas estão trabalhando para tornar os deepfakes mais fáceis de detectar. Há uma variedade de ferramentas destinadas a combater vídeos falsos maliciosos. Muitas dessas ferramentas usam IA para detectar adulteração em vídeos.

A AI Foundation criou um plug-in de navegador chamado Reality Defender para ajudar a detectar conteúdo deepfake online. Outro plugin, SurfSafe, também realiza verificações semelhantes. Ambas as ferramentas visam ajudar os usuários da Internet a discernir o fato da ficção.

Sites de verificação de fatos respeitáveis ​​também se expandiram para apontar vídeos adulterados. Enquanto isso, a Microsoft também lançou uma tecnologia para ajudar a combater vídeos deepfake.

Até o Departamento de Defesa dos EUA investiu em software para detectar deepfakes. Afinal, o que aconteceria se um vídeo convincente de um líder mundial aparecesse na internet, declarando guerra ou lançando um míssil contra outro país? Os governos precisam de ferramentas para verificar rapidamente a legitimidade de um vídeo.

Consequências não intencionais do aprendizado de máquina

Não há dúvida de que a tecnologia de IA e o profundo aprendizado de máquina melhoram nossas vidas de várias maneiras. Mas a tecnologia também tem consequências não intencionais. É difícil prever como as pessoas podem usar determinada tecnologia para fins maliciosos, e os deepfakes são um exemplo disso.

.

Mostrar mais

Artigos relacionados

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

Botão Voltar ao topo