Deepfakes: saiba como se proteger

Compartilhar

Deepfake é um tipo de mídia digital (vídeo, áudio e imagens) editada e manipulada com o uso de inteligência artificial (IA). O resultado é obtido através de uma tecnologia conhecida como “machine learning” ou “aprendizagem automática”. Nela, a IA aprende coisas novas por meio do consumo de informações. Apesar de ser um recurso recente, as deepfakes já apresentam diversos riscos para a segurança cibernética. 

Como se proteger de crimes cibernéticos?

Como funciona a deepfake?

De maneira simples, a técnica de deepfake funciona por meio de algoritmos de deep learning (aprendizado profundo) e machine learning. Eles são alimentados com exemplos de imagens, vídeos e áudios, que servem para produzir o resultado desejado: uma mídia digital falsa semelhante ao exemplo que recebido.

Ou seja, uma forma prática de exemplificar o funcionamento do deepfake é a forma como os humanos descobrem o mundo. Por exemplo, um recém-nascido coloca objetos na boca toda hora e percebe que eles não são comestíveis. Depois de um tempo fazendo isso, a criança vai saber separar o que pode colocar na boca e o que não pode.

Sendo assim, a máquina recebe a informação exemplo, a analisa várias vezes em diversos níveis neurais diferentes e só então constrói um resultado semelhante, mas que não existe. 

Funcionamento de deepfakes de forma técnica 

As deepfakes usam dois algoritmos para criar e refinar o conteúdo falso: um gerador e um discriminador. A função do gerador é construir e treinar informações baseadas no que é necessário para obter o resultado desejado. Desta maneira, ele cria o primeiro conteúdo digital falso com base no exemplo que lhe foi fornecido. 

A partir disso entra o discriminador, esse algoritmo tem como função analisar o quão realista é o conteúdo falso criado pelo gerador. Esse processo é repetido várias vezes até que os dois algoritmos aperfeiçoem suas habilidades, criando a mídia digital falsa mais realista possível. 

A junção do discriminador e do gerador formam uma “generative adversarial network (GAN)” ou rede adversarial generativa. A GAN usa da técnica de deep learning para reconhecer padrões em imagens reais e recriar esses padrões nos conteúdos falsos. Por exemplo:

  • Quando cria-se uma imagem de deepfake, o sistema da GAN analisa todos os ângulos do exemplar, capturando todas as perspectivas e detalhes;
  • No caso de um vídeo, cabe a rede adversarial generativa a função de analisar as ações, os movimentos e os padrões de fala presentes no conteúdo;
  • Para áudios a GAN clona o som da voz de uma pessoa e cria um modelo baseado nos seus padrões de fala, que repete tudo aquilo que o criador desejar;
  • Essa informação é lida pelo discriminador várias vezes, até que o gerador produza um resultado mais realista;

O tempo de criação da deepfake depende do trabalho que os algoritmos têm que fazer, podendo ser de algumas horas ou alguns dias. No final é possível obter um pedaço de mídia em que um indivíduo fala ou faz algo que nunca fez ou faria. Além disso, o rosto de alguém pode ser trocado com o corpo de outra pessoa, para criar uma situação inexistente.

Quem criou a deepfake?

As raízes da deepfake surgiram com a manipulação de fotos em softwares como o Adobe Photoshop, por volta de 2010. Foi nessa época que os computadores ficaram mais baratos e a tecnologia das IAs começaram a ficar mais sofisticadas. 

Em 2014, na Universidade de Montreal, o pesquisador Ian Goodfellow criou a primeira rede adversária generativa, que viria a ser o coração das deepfakes. Em 2017, uma conta anônima do Reddit postou uma série de vídeos pornográficos usando deepfake para inserir rostos de pessoas famosas. Esse conteúdo se tornou viral e a prática foi ganhando seguidores.

Pornografia infantil pode se tornar crime hediondo sem direito a fiança

Quais as tecnologias necessárias para criar uma deepfake?

Para desenvolver uma verdadeira deepfake é necessário trabalhar com as seguintes tecnologias:

GAN: a rede adversária generativa é usada na produção de todo conteúdo deepfake;

Redes neurais convolucionais: analisam os padrões de dados visuais e são usadas para reconhecimento facial e rastreio de movimentos;

Autoencoders: redes neurais usadas para identificar atributos e padrões importantes para a recriação de expressões faciais e movimentos corporais;

Processamento de linguagem natural: responsável por criar áudios de deepfake. Esse algoritmo que analisa os atributos de fala de um indivíduo e gera textos originais para que a voz reproduza;

Computação de alto desempenho (HPC): um tipo de computação que oferece a energia necessária para a produção de deepfakes;

De acordo com o relatório “Ameaça crescente de deepfakes“, do Departamento de Segurança Interna dos EUA, os softwares mais usados para gerar esses conteúdos falsos são:

  • Deep Art Effects
  • Deepswap
  • Deep Video Portraits
  • FaceApp
  • FaceMagic
  • MyHeritage
  • Wav2Lip
  • Wombo
  • Zao

Quais são os riscos da deepfake?

As deepfakes podem ser um perigo para a segurança cibernética das pessoas e de governos. Um dos primeiros casos a estourar, como citado acima, foi a divulgação de pornografia sem consentimento com o rosto de pessoas famosas. Ou seja, logo de início essa falsificação causou dano ao ser humano.

Entre os principais riscos das deepfakes pode se encontrar a criação de conteúdo falso para chantagear e danificar a reputação de um indivíduo. Esse fator é nocivo não só para pessoas comuns, mas também em políticas. Afinal, mídias digitais criadas para difamar alguém podem ter poder sobre eleições e momentos delicados da política e economia mundial.

Sem contar que as deepfakes abrem o caminho para a produção de falsas evidências, fraudes, disseminação de desinformação e manipulação de dados. Os impactos negativos deste tipo de tecnologia podem ser sentidos em pequena e grande escala. 

Um exemplo é o que aconteceu em 2022, durante a invasão da Rússia na Ucrânia. Foi vazado uma deepfake em que o presidente da Ucrânia, Volodymyr Zelensky, aparece comandando as tropas do país a se renderem aos russo. O vídeo foi desmentido, mas mesmo assim teve um impacto significativo na situação delicada da época.

Guerra na Ucrânia e avanço da fome derrubam expectativas sobre COP 27

Como se proteger de deepfakes?

No Brasil, ainda não existe uma legislação específica para o combate de deepfakes. Porém, é possível se defender juridicamente dependendo da situação:

É importante que as pessoas desenvolvam sua literacia midiática. Ou seja, sejam educadas para discernir o que é informação falsa e o que não é, quais portais confiar e quais evitar. Na hora de identificar uma deepfake fique atento para:

  • Posicionamento facial anormal ou estranho;
  • Movimento facial ou corporal não natural;
  • Coloração não natural;
  • Vídeos que parecem estranhos quando ampliados ou aumentados;
  • Áudio inconsistente;
  • Pessoas que não piscam os olhos;
  • Erros ortográficos;
  • Frases que não fluem naturalmente;
  • Endereços de e-mail de origem suspeita;
  • Frases que não correspondem ao suposto remetente;
  • Mensagens fora de contexto que não são relevantes para qualquer discussão, evento ou problema;

Existem softwares que podem facilitar a identificação deste tipo de conteúdo. A Adobe, Microsoft, Operation Minerva e a Sensity são algumas empresas que fornecem ferramentas para a proteção de mídias digitais. Além da detecção de falsificações em informações e dados.

Ana Nóbrega

Jornalista ambiental, praticante de liberdade alimentar e defensora da parentalidade positiva. Jovem paraense se aventurando na floresta de cimento de São Paulo.

Utilizamos cookies para oferecer uma melhor experiência de navegação. Ao navegar pelo site você concorda com o uso dos mesmos.

Saiba mais