sexta-feira, 2 de outubro de 2020

Deep Fake: A nova ameaça do século XXI


Se as Fake News se tornaram um grande problema no Brasil, principalmente em relação à política, o Deep Fake fará um estrago ainda pior.

Através de Inteligência Artificial, Machine Learning e com ferramentas de código aberto pode se criar um algoritmo para treinar uma Rede Neural a mapear o rosto de uma pessoa, e então, substituir os movimentos labiais, expressões do rosto e piscar dos olhos, e até o rosto por completo, no corpo de outra pessoa. Em muitos casos, a qualidade fica impressionante.

A mecânica de funcionamento é bem simples: o software trabalha analisando primeiro os movimentos faciais de um alvo, cuja aparência será usada no vídeo falso. Após mapear a cabeça, o movimento e o piscar dos olhos, os detalhes da boca e demais movimentos o software analisa essas mesmas marcações no vídeo original e então mescla os movimentos. Isso cria um vídeo falso surpreendentemente realista.

Para potencializar isso, duas aplicações podem rodar simultaneamente, uma sendo lançada contra o outra, sendo uma para criar e outra para analisar, em uma série de milhões de ajustes de ida e volta. Isso torna o processo de aprendizado mais rápido e mais preciso do que se um ser humano analisasse cada uma das tentativas.

Políticos como Obama, Trump e Puttin já foram vítimas do Deep Fake. Celebridades como Ariana Grande, Cameron Diaz, Emma Watson, Angelina Jolie e Miley Cirus são vítimas constantes em sites de pornografia, vídeos utilizando seus rostos são facilmente encontrados.

A Faculdade de Washington promoveu um estudo e publicou o vídeo em que o software após horas de análise conseguiu criar movimentos labiais perfeitos do ex-presidente americano Obama. Uniram dois vídeos diferentes, em um aproveitaram o áudio e em outro aproveitaram a imagem. A rede neural recorrente aprende o mapeamento de recursos de áudio brutos para formas de boca.

No caso do estudo usaram a voz original, mas poderiam facilmente utilizar um imitador ou unir diferentes áudios para formar uma frase. O que poderia acarretar graves problemas políticos de nível mundial.

O Twitter baniu qualquer conteúdo que promova o assunto, como também vídeos que utilizem desta tecnologia. O site pornô, Pornhub, também fez o mesmo, banindo qualquer vídeo que utilize esta tecnologia. No Brasil, ainda não temos nenhuma iniciativa que impeça a proliferação de conteúdo Deep Fake.

A falsificação de imagens e vídeos não é nenhuma novidade, existem aplicativos para smartphones que facilmente mudam o rosto de pessoas. No entanto, o ponto em questão é o realismo. A manipulação de imagens e vídeos usando Inteligência Artificial pode se tornar um fenômeno de massa perigoso.

Outro caso em que esta tecnologia está sendo usada é a “pornografia de vingança” onde o rosto de pessoas comuns são aplicados em vídeos de pornografia, para que alguma extorsão seja realizada.

A base desta aplicação usa o TensorFlow, do Google. Uma biblioteca de código aberto para aprendizado de máquina aplicável a uma ampla variedade de tarefas. É um sistema para criação e treinamento de redes neurais para detectar e decifrar padrões e correlações, análogo à forma como humanos aprendem e raciocinam. A concepção do TensorFlow jamais foi pensada em possibilidades tão obscuras.

Neste ano de 2020, contaremos com eleições para prefeitos e vereadores e certamente poderemos ter casos de Deep Fake sendo usado no Brasil para denegrir a imagem de um determinado político.

Em relação ao mundo corporativo, o Deep Fake também pode ser um grave problema. Vídeos falsos de presidentes de grandes corporações podem ser espalhados com o objetivo de denegrir a imagem do indivíduo ou da empresa. Até que a informação verdadeira seja revelada, um estrago enorme pode ser feito afetando vendas, marketing, relação com investidores entre outras frentes.

Por isso, é de extrema importância certificar-se da procedência da mensagem antes de compartilhar e ter como base, fontes confiáveis de notícias. A informação é a principal moeda do século XXI.

 


TRIWI

www.triwi.com.br

Nenhum comentário:

Postar um comentário