Deepfake é uma tecnologia usada para criar conteúdos digitais falsos a partir da inteligência artificial (IA)
Deepfake é um tipo de mídia digital (vídeo, áudio e imagens) editada e manipulada com o uso de inteligência artificial (IA). O resultado é obtido através de uma tecnologia conhecida como “machine learning” ou “aprendizagem automática”. Nela, a IA aprende coisas novas por meio do consumo de informações. Apesar de ser um recurso recente, as deepfakes já apresentam diversos riscos para a segurança cibernética.
Como funciona a deepfake?
De maneira simples, a técnica de deepfake funciona por meio de algoritmos de deep learning (aprendizado profundo) e machine learning. Eles são alimentados com exemplos de imagens, vídeos e áudios, que servem para produzir o resultado desejado: uma mídia digital falsa semelhante ao exemplo que recebido.
Ou seja, uma forma prática de exemplificar o funcionamento do deepfake é a forma como os humanos descobrem o mundo. Por exemplo, um recém-nascido coloca objetos na boca toda hora e percebe que eles não são comestíveis. Depois de um tempo fazendo isso, a criança vai saber separar o que pode colocar na boca e o que não pode.
Sendo assim, a máquina recebe a informação exemplo, a analisa várias vezes em diversos níveis neurais diferentes e só então constrói um resultado semelhante, mas que não existe.
Funcionamento de deepfakes de forma técnica
As deepfakes usam dois algoritmos para criar e refinar o conteúdo falso: um gerador e um discriminador. A função do gerador é construir e treinar informações baseadas no que é necessário para obter o resultado desejado. Desta maneira, ele cria o primeiro conteúdo digital falso com base no exemplo que lhe foi fornecido.
A partir disso entra o discriminador, esse algoritmo tem como função analisar o quão realista é o conteúdo falso criado pelo gerador. Esse processo é repetido várias vezes até que os dois algoritmos aperfeiçoem suas habilidades, criando a mídia digital falsa mais realista possível.
A junção do discriminador e do gerador formam uma “generative adversarial network (GAN)” ou rede adversarial generativa. A GAN usa da técnica de deep learning para reconhecer padrões em imagens reais e recriar esses padrões nos conteúdos falsos. Por exemplo:
- Quando cria-se uma imagem de deepfake, o sistema da GAN analisa todos os ângulos do exemplar, capturando todas as perspectivas e detalhes;
- No caso de um vídeo, cabe a rede adversarial generativa a função de analisar as ações, os movimentos e os padrões de fala presentes no conteúdo;
- Para áudios a GAN clona o som da voz de uma pessoa e cria um modelo baseado nos seus padrões de fala, que repete tudo aquilo que o criador desejar;
- Essa informação é lida pelo discriminador várias vezes, até que o gerador produza um resultado mais realista;
O tempo de criação da deepfake depende do trabalho que os algoritmos têm que fazer, podendo ser de algumas horas ou alguns dias. No final é possível obter um pedaço de mídia em que um indivíduo fala ou faz algo que nunca fez ou faria. Além disso, o rosto de alguém pode ser trocado com o corpo de outra pessoa, para criar uma situação inexistente.
Quem criou a deepfake?
As raízes da deepfake surgiram com a manipulação de fotos em softwares como o Adobe Photoshop, por volta de 2010. Foi nessa época que os computadores ficaram mais baratos e a tecnologia das IAs começaram a ficar mais sofisticadas.
Em 2014, na Universidade de Montreal, o pesquisador Ian Goodfellow criou a primeira rede adversária generativa, que viria a ser o coração das deepfakes. Em 2017, uma conta anônima do Reddit postou uma série de vídeos pornográficos usando deepfake para inserir rostos de pessoas famosas. Esse conteúdo se tornou viral e a prática foi ganhando seguidores.
Quais as tecnologias necessárias para criar uma deepfake?
Para desenvolver uma verdadeira deepfake é necessário trabalhar com as seguintes tecnologias:
GAN: a rede adversária generativa é usada na produção de todo conteúdo deepfake;
Redes neurais convolucionais: analisam os padrões de dados visuais e são usadas para reconhecimento facial e rastreio de movimentos;
Autoencoders: redes neurais usadas para identificar atributos e padrões importantes para a recriação de expressões faciais e movimentos corporais;
Processamento de linguagem natural: responsável por criar áudios de deepfake. Esse algoritmo que analisa os atributos de fala de um indivíduo e gera textos originais para que a voz reproduza;
Computação de alto desempenho (HPC): um tipo de computação que oferece a energia necessária para a produção de deepfakes;
De acordo com o relatório “Ameaça crescente de deepfakes“, do Departamento de Segurança Interna dos EUA, os softwares mais usados para gerar esses conteúdos falsos são:
- Deep Art Effects
- Deepswap
- Deep Video Portraits
- FaceApp
- FaceMagic
- MyHeritage
- Wav2Lip
- Wombo
- Zao
Quais são os riscos da deepfake?
As deepfakes podem ser um perigo para a segurança cibernética das pessoas e de governos. Um dos primeiros casos a estourar, como citado acima, foi a divulgação de pornografia sem consentimento com o rosto de pessoas famosas. Ou seja, logo de início essa falsificação causou dano ao ser humano.
Entre os principais riscos das deepfakes pode se encontrar a criação de conteúdo falso para chantagear e danificar a reputação de um indivíduo. Esse fator é nocivo não só para pessoas comuns, mas também em políticas. Afinal, mídias digitais criadas para difamar alguém podem ter poder sobre eleições e momentos delicados da política e economia mundial.
Sem contar que as deepfakes abrem o caminho para a produção de falsas evidências, fraudes, disseminação de desinformação e manipulação de dados. Os impactos negativos deste tipo de tecnologia podem ser sentidos em pequena e grande escala.
Um exemplo é o que aconteceu em 2022, durante a invasão da Rússia na Ucrânia. Foi vazado uma deepfake em que o presidente da Ucrânia, Volodymyr Zelensky, aparece comandando as tropas do país a se renderem aos russo. O vídeo foi desmentido, mas mesmo assim teve um impacto significativo na situação delicada da época.
Como se proteger de deepfakes?
No Brasil, ainda não existe uma legislação específica para o combate de deepfakes. Porém, é possível se defender juridicamente dependendo da situação:
- Em casos de deepfakes pornográficas é possível apelar a Lei Carolina Dieckmann (Lei nº 12.737/2012) e a Lei de Importunação Sexual (Lei nº 13.718/2018);
- Situações políticas durante as eleições podem ser enquadradas pelo Código Eleitoral (Lei nº 4.737/1965);
- Alguns casos são previstos na Lei de Crimes Cibernéticos (Lei nº 12.737/2012), no Marco Civil da Internet (Lei nº 12.965/2014 — “MCI”) e na Lei Geral de Proteção de Dados Pessoais (Lei nº 13.709/2018);
É importante que as pessoas desenvolvam sua literacia midiática. Ou seja, sejam educadas para discernir o que é informação falsa e o que não é, quais portais confiar e quais evitar. Na hora de identificar uma deepfake fique atento para:
- Posicionamento facial anormal ou estranho;
- Movimento facial ou corporal não natural;
- Coloração não natural;
- Vídeos que parecem estranhos quando ampliados ou aumentados;
- Áudio inconsistente;
- Pessoas que não piscam os olhos;
- Erros ortográficos;
- Frases que não fluem naturalmente;
- Endereços de e-mail de origem suspeita;
- Frases que não correspondem ao suposto remetente;
- Mensagens fora de contexto que não são relevantes para qualquer discussão, evento ou problema;
Existem softwares que podem facilitar a identificação deste tipo de conteúdo. A Adobe, Microsoft, Operation Minerva e a Sensity são algumas empresas que fornecem ferramentas para a proteção de mídias digitais. Além da detecção de falsificações em informações e dados.