Deepfake é um tipo de mídia digital (vídeo, áudio e imagens) editada e manipulada com o uso de inteligência artificial (IA). O resultado é obtido através de uma tecnologia conhecida como “machine learning” ou “aprendizagem automática”. Nela, a IA aprende coisas novas por meio do consumo de informações. Apesar de ser um recurso recente, as deepfakes já apresentam diversos riscos para a segurança cibernética.
De maneira simples, a técnica de deepfake funciona por meio de algoritmos de deep learning (aprendizado profundo) e machine learning. Eles são alimentados com exemplos de imagens, vídeos e áudios, que servem para produzir o resultado desejado: uma mídia digital falsa semelhante ao exemplo que recebido.
Ou seja, uma forma prática de exemplificar o funcionamento do deepfake é a forma como os humanos descobrem o mundo. Por exemplo, um recém-nascido coloca objetos na boca toda hora e percebe que eles não são comestíveis. Depois de um tempo fazendo isso, a criança vai saber separar o que pode colocar na boca e o que não pode.
Sendo assim, a máquina recebe a informação exemplo, a analisa várias vezes em diversos níveis neurais diferentes e só então constrói um resultado semelhante, mas que não existe.
As deepfakes usam dois algoritmos para criar e refinar o conteúdo falso: um gerador e um discriminador. A função do gerador é construir e treinar informações baseadas no que é necessário para obter o resultado desejado. Desta maneira, ele cria o primeiro conteúdo digital falso com base no exemplo que lhe foi fornecido.
A partir disso entra o discriminador, esse algoritmo tem como função analisar o quão realista é o conteúdo falso criado pelo gerador. Esse processo é repetido várias vezes até que os dois algoritmos aperfeiçoem suas habilidades, criando a mídia digital falsa mais realista possível.
A junção do discriminador e do gerador formam uma “generative adversarial network (GAN)” ou rede adversarial generativa. A GAN usa da técnica de deep learning para reconhecer padrões em imagens reais e recriar esses padrões nos conteúdos falsos. Por exemplo:
O tempo de criação da deepfake depende do trabalho que os algoritmos têm que fazer, podendo ser de algumas horas ou alguns dias. No final é possível obter um pedaço de mídia em que um indivíduo fala ou faz algo que nunca fez ou faria. Além disso, o rosto de alguém pode ser trocado com o corpo de outra pessoa, para criar uma situação inexistente.
As raízes da deepfake surgiram com a manipulação de fotos em softwares como o Adobe Photoshop, por volta de 2010. Foi nessa época que os computadores ficaram mais baratos e a tecnologia das IAs começaram a ficar mais sofisticadas.
Em 2014, na Universidade de Montreal, o pesquisador Ian Goodfellow criou a primeira rede adversária generativa, que viria a ser o coração das deepfakes. Em 2017, uma conta anônima do Reddit postou uma série de vídeos pornográficos usando deepfake para inserir rostos de pessoas famosas. Esse conteúdo se tornou viral e a prática foi ganhando seguidores.
Para desenvolver uma verdadeira deepfake é necessário trabalhar com as seguintes tecnologias:
GAN: a rede adversária generativa é usada na produção de todo conteúdo deepfake;
Redes neurais convolucionais: analisam os padrões de dados visuais e são usadas para reconhecimento facial e rastreio de movimentos;
Autoencoders: redes neurais usadas para identificar atributos e padrões importantes para a recriação de expressões faciais e movimentos corporais;
Processamento de linguagem natural: responsável por criar áudios de deepfake. Esse algoritmo que analisa os atributos de fala de um indivíduo e gera textos originais para que a voz reproduza;
Computação de alto desempenho (HPC): um tipo de computação que oferece a energia necessária para a produção de deepfakes;
De acordo com o relatório “Ameaça crescente de deepfakes“, do Departamento de Segurança Interna dos EUA, os softwares mais usados para gerar esses conteúdos falsos são:
As deepfakes podem ser um perigo para a segurança cibernética das pessoas e de governos. Um dos primeiros casos a estourar, como citado acima, foi a divulgação de pornografia sem consentimento com o rosto de pessoas famosas. Ou seja, logo de início essa falsificação causou dano ao ser humano.
Entre os principais riscos das deepfakes pode se encontrar a criação de conteúdo falso para chantagear e danificar a reputação de um indivíduo. Esse fator é nocivo não só para pessoas comuns, mas também em políticas. Afinal, mídias digitais criadas para difamar alguém podem ter poder sobre eleições e momentos delicados da política e economia mundial.
Sem contar que as deepfakes abrem o caminho para a produção de falsas evidências, fraudes, disseminação de desinformação e manipulação de dados. Os impactos negativos deste tipo de tecnologia podem ser sentidos em pequena e grande escala.
Um exemplo é o que aconteceu em 2022, durante a invasão da Rússia na Ucrânia. Foi vazado uma deepfake em que o presidente da Ucrânia, Volodymyr Zelensky, aparece comandando as tropas do país a se renderem aos russo. O vídeo foi desmentido, mas mesmo assim teve um impacto significativo na situação delicada da época.
No Brasil, ainda não existe uma legislação específica para o combate de deepfakes. Porém, é possível se defender juridicamente dependendo da situação:
É importante que as pessoas desenvolvam sua literacia midiática. Ou seja, sejam educadas para discernir o que é informação falsa e o que não é, quais portais confiar e quais evitar. Na hora de identificar uma deepfake fique atento para:
Existem softwares que podem facilitar a identificação deste tipo de conteúdo. A Adobe, Microsoft, Operation Minerva e a Sensity são algumas empresas que fornecem ferramentas para a proteção de mídias digitais. Além da detecção de falsificações em informações e dados.
Utilizamos cookies para oferecer uma melhor experiência de navegação. Ao navegar pelo site você concorda com o uso dos mesmos.
Saiba mais