Muito além das fake news: as deepfakes


Cel Swami de Holanda Fontes
E-Blog

Alegoricamente, pode-se dizer que as fake news surgiram com a própria criação do mundo, quando a serpente enganou os primeiros seres humanos da Terra sobre os benefícios de se provar o fruto proibido. A questão aqui é como seria possível uma criatura originária do Criador enganar Adão e Eva, também concebidos pelo mesmo Ser Supremo. Por que Deus faria isso?

No caso da serpente, citada no livro do Gênesis, alguém a teria induzido a falar algo para enganar o casal. Logo, podemos dizer que o termo deepfake pode ter surgido exatamente aí: quando um ser oculto, com intenções escusas, falou pela serpente. As fake news e as deepfakes são mais antigas do que as próprias mídias sociais, que surgiram quando os homens da Pré-História desenharam figuras e pinturas rupestres nas pedras, rochas e paredes das cavernas.

 A expressão deepfake vem da junção de duas ideias em inglês: deep learning (aprendizagem profunda) e fake (falso), podendo ser traduzida, livremente, como falsidade profunda. Resumidamente, deepfake é uma técnica de sincronização de sons e falas com vídeos originalmente existentes, em que se utiliza a Inteligência Artificial (IA). A grosso modo, ela seria a versão moderna do ventriloquismo, arte em que um manuseador projeta uma voz em um boneco.

 O termo tornou-se conhecido e ganhou popularidade a partir de 2017, quando foram produzidos vídeos falsos, de natureza sexual, com celebridades. Não são novidades os efeitos especiais de computador que moldam rostos e pessoas, dão vida a seres inanimados e criam cenas com ações impossíveis de ocorrerem em uma situação real. Há anos, essas imagens fazem parte do cotidiano, em especial, das produções cinematográficas. Contudo, a inovação está na facilidade com que podem ser produzidas e na popularização, por intermédio de programas e computadores mais avançados e de mais fácil acesso.  

Em 2018, a deepfake produzida pelo ator e diretor americano Jordan Peele tornou-se mundialmente conhecida. Ele dublou um discurso do ex-presidente dos Estados Unidos da América, Barack Obama, utilizando softwares para tornar perfeita a sincronização das palavras ditas com o movimento facial.  Esse vídeo, de poucos segundos, alertava sobre o perigo desse tipo de tecnologia. No Brasil, nesse mesmo ano, destacou-se o caso de um político que foi vítima do vazamento de um suposto vídeo com cenas íntimas.

Da mesma forma que as fake news, essa nova armadilha também possui consequências impactantes, pois pode induzir as pessoas ao erro e/ou fazê-las desacreditar em qualquer informação disponibilizada pelas diversas mídias. Essa tecnologia emprega softwares que contém bibliotecas de códigos voltadas ao aprendizado. O programador fornece centenas ou milhares de fotos e vídeos da pessoa que será manipulada. Essas informações serão processadas por uma rede neural, fazendo com que o sistema aprenda como é determinado rosto, como ele se movimenta e como reage aos fatores externos como luz e sombra. Após testar as diversas combinações entre esses elementos, o programa encontra o ponto perfeito para a fisionomia a ser forjada.

Esses programas estão cada vez mais sofisticados e acessíveis, ficando mais fácil produzir e distribuir informações falsas de acordo com os interesses de quem detém essas ferramentas. A tecnologia é de grande utilidade para substituir, em cenas arriscadas, os rostos dos dublês pelos dos atores que não podem se acidentar para não interromper as gravações, ou que não possuem aptidão para realizar determinadas ações. Ela permite trocar as fisionomias de quem realmente foi filmado por aquelas que irão aparecer nas telas das TV ou dos cinemas.

Se por um lado as manipulações aqui abordadas podem ser bem aproveitadas, como na produção de filmes e comerciais, por outro podem ter um lado maléfico. A adulteração de imagens e vozes constitui um perigo tanto para a pessoa que foi alvo da manipulação quanto para a sociedade. Quando não consentido, a vítima pode ter sua honra e credibilidade abaladas, assim como possíveis danos psicológicos.

Já aqueles que tomaram decisões baseadas nessas adulterações podem sofrer diversas formas de prejuízos. Imagine a situação de se criar um álibi para inocentar um criminoso ao afirmar que ele estava em um ambiente, já que foi filmado conversando com desconhecidos, quando na realidade poderia ter cometido um crime em outro lugar. Outra consequência é fazer com que as pessoas passem a desacreditar em qualquer informação que seja verdadeira e genuína, pois torna-se difícil identificar a veracidade do que está sendo noticiado.

É provável que no futuro seja muito difícil identificar as deepfakes; por enquanto, isso ainda é possível. Com bastante atenção, verifique o piscar dos olhos, as expressões faciais, o movimento da boca e dos lábios de quem está falando e compare com o que está sendo dito. Fique atento aos trejeitos do orador, à intensidade, à altura, ao timbre, à duração, ao sotaque e a falhas da voz de quem está sendo avaliado e compare com outras características reconhecidamente originais.

Observe os movimentos dos olhos e a respiração do falante para verificar se eles estão fora da naturalidade. Na maioria das vezes, os algoritmos não reproduzem bem esses aspectos. Se você conhece a pessoa que aparece no vídeo, compare se o que está sendo dito é coerente com seu perfil, sua personalidade e suas características. Analise, também, a data de produção e distribuição do vídeo, a origem e quem está divulgando.

Por enquanto, a sociedade ainda está à mercê desse novo fenômeno, havendo necessidade de que medidas e precauções sejam tomadas para que não provoquem os mesmos males das fake news. A criação de legislação específica para tratar do assunto e o cuidado em compartilhar vídeos são exemplos de ações para dificultar ou impedir a produção e divulgação desses vídeos.

No livro do Gênesis cita-se que Adão e Eva conheceriam o bem e o mal ao comerem do fruto proibido. Nos dias atuais, diferentemente, as deepfakes, normalmente prometem o bem, mas, na prática, tem nos fornecido o mal. Bem-vindo ao inferno.

Compartilhar:

Leia também

Inscreva-se na nossa newsletter