DeepFake – A Tecnologia da Mentira
A indústria de fake news está cada vez mais aprimorada… Novas técnicas de falsificação de vídeo e áudio, que utilizam a Inteligência Artificial, surgem todos os anos e torna mais difícil a tarefa de distinguir a ficção da realidade. Neste post conheça a DeepFake – A Tecnologia da Mentira – e como ele utiliza a Inteligência Artificial para simular a realidade.
DeepFake é uma palavra inglesa composta pelos termos “deep” (aprofundado) que remete a “deep learning” (aprendizagem aprofundada) e “fake” (falso). A tecnologia utiliza os recursos de Inteligência Artificial (IA) para aprender, com os movimentos físicos faciais e vozes, como criar novos dados (imagens e áudio) muito próximos aos originais.
Você já deve ter visto aplicativos de celular que insere o rosto de pessoas comuns em vídeos de pessoas famosas. Essa é apenas uma forma ingênua de DeepFake e uma amostra grátis do que existe de mais sofisticado por aí.
Como funciona a DeepFake?
A DeepFake utiliza várias camadas de algoritmos obtidos por meio de aprendizado de máquina para extrair recursos de alto nível de dados brutos, progressivamente. Por meio desse método é possível promover a aprendizagem com base em dados não estruturados (o rosto humano, por exemplo). A IA consegue coletar dados de movimentos físicos faciais e estabelecer padrões fidedignos.
Esses dados são processados para criar vídeos falsos por meio da Rede Adversária Generativa (GAN), outro tipo de sistema especializado em aprendizado de máquina. Duas redes neurais são usadas para competir entre si na aprendizagem das características de um conjunto de dados de treinamento (fotografias, por exemplo). Em seguida geram novos dados com base nas características aprendidas (novas “fotografias”).
Como esse processo continua testando as imagens diante do conjunto de dados de treinamento, as imagens falsas tornam-se cada vez mais convincentes. Além disso, a Rede Adversária Generativa pode falsificar outros dados, como vozes. Isso torna a técnica de DeepFake uma ameaça ainda mais potente.
Como se proteger da DeepFake?
A maioria das pessoas não estão preocupadas com essas situações e sequer questionam sobre a veracidade dos materiais que recebem através de suas redes sociais. A maioria olha e compartilha sem ao menos questionar sobre a sua veracidade.
É óbvio que a maioria de nós não é especialista em análise de áudio e vídeo, e dificilmente iremos perceber logo de cara o que é fato ou mentira. No entanto, é importante termos uma visão crítica sobre tudo que recebemos e considerar a possibilidade de ser falso.
Veja algumas características típicas de vídeos falsos que devemos prestar atenção:
- Lábios mal sincronizados com a fala;
- Movimentos bruscos;
- Iluminação instável, com alterações de um quadro para o outro;
- O “piscar de olhos” estranho ou a falta disso;
- Elementos artificiais na imagem.
Em alguns países, a legislação já aborda as ameaças dos materiais de DeepFake. Por exemplo, no estado da Califórnia dois projetos de lei aprovados tornaram ilegais aspectos da DeepFake. A lei AB-602 proibiu a síntese de imagens humanas para gerar pornografia sem o consentimento das pessoas afetadas, enquanto a lei AB-730 proíbe a manipulação de imagens de políticos no período de 60 dias antes de uma eleição.
Felizmente, empresas de segurança virtual vêm criando cada vez mais e melhores algoritmos de detecção de fraudes. Essas soluções analisam as imagens e detectam pequenas distorções geradas no processo de falsificação. Um exemplo, os sintetizadores de DeepFake modelam o rosto humano em 2D para, em seguida, distorcer para ajustá-lo à perspectiva 3D do vídeo.
Hoje, a maioria dos vídeos falsos, elaborados com a DeepFake, ainda podem ser percebidos por nós. Mas vai chegar um ponto onde as distorções só serão percebidas através de análises de softwares avançados.
Casos de fraudes com DeepFake
Em 2017, as atrizes Daisy Ridley, Emma Stone e Emma Watson foram representadas em cenas de vídeos pornográficos. Seus rostos foram sintetizados em atrizes pornôs e disponibilizados no Reddit pelo usuário de pseudônimo “Deepfakes”.
O CEO de uma empresa britânica de energia teve um prejuízo de 243 mil dólares por causa de um áudio de DeepFake simulando a voz de um colega diretor da empresa. No áudio falso, o diretor solicitou uma transferência de fundos emergencial. O áudio era tão convincente que o CEO nem pensou em verificar a veracidade; o valor foi transferido para a conta bancária do estelionatário.
Tecnologias usadas contra a DeepFake
Existem tecnologias que auxiliam os produtores de materiais audiovisuais a autenticar suas criações. Um exemplo é o algoritmo criptográfico que insere hashes em intervalos definidos durante o vídeo. Se o vídeo for alterado em algum momento, os hashes também serão alterados, provando a fraude.
A Inteligência Artificial e Blockchain podem registrar uma impressão digital à prova de adulteração para vídeos; técnica semelhante aos documentos com marca d’água.
Também é possível usar um programa que insere “elementos” digitais em vídeos para ocultar os padrões de pixels que o software de detecção de rosto utiliza. Esses “elementos” retardam os algorítmos de DeepFake e geram resultados ruins, reduzindo as chances de êxito dos vídeos produzidos com DeepFake.
E você, já recebeu algum material suspeito ou conhece alguém que já foi vítima de DeepFake? Deixe nos comentários.
Quer saber mais sobre Segurança da Informação? Navegue no site ou acesse o nosso canal no YouTube:
https://youtube.com/criandobits
Conheça o curso de Segurança em Redes de Computadores e entenda os diversos tipos de ataques que existem, bem como as peças do quebra-cabeça que integram a defesa de uma rede, entre elas: Firewall, IPS, Proxy, Anti-Spam, Anti-vírus, Anti-Malware, VPN, Sandboxing, NAC, etc.
Sobre o Autor
0 Comentários