Saiba quais são
as medidas para lidar com riscos e evitar cair em golpes de deepfakes, que
representam 27% dos casos de uso criminoso de IA
Verificar a
fonte da informação é a maior recomendação para lidar com
deepfakes. Conteúdos gerados por IA evoluem na velocidade da tecnologia
e ainda estamos aprendendo sobre como são criados e disseminados. O realismo
atrelado ao seu mau uso pode gerar sérias consequências e danos irreversíveis
e, por isso, pessoas e companhias buscam medidas para se protegerem e
minimizarem os danos do compartilhamento de imagens falsas.
Para
identificar o uso criminoso da inteligência artificial, algumas recomendações
são fundamentais para entender e compreender como pessoas ou grupos usam este
recurso para praticar fraudes dos mais variados tipos. Como saber se uma
notícia é falsa, ou um perfil é falso, ou uma voz é falsa? O importante é
checar quem é o dono da informação e sempre consultar a fonte. Assim como as fake news,
também bastante presente nesta era digital, as deepfaakes são
uma ameaça em todo mundo, com números que crescem exponencialmente. De acordo
com estudo inédito da DeepMind, unidade de IA do Google, deepfakes
representam 27% dos casos de uso criminoso de IA, superando ataques
cibernéticos.
Neste
contexto, vale um olhar atento ao conteúdo produzido por meio de inteligência
artificial, tecnologia que se expandiu de forma expressiva nos últimos anos.
Com o uso da IA, tudo ficou fácil e rápido. A IA faz uma engenharia social e
pode ser utilizada para adulterar fotos e vídeos postados nas redes sociais.
Portanto, a partir do momento que há uma fonte de informação de domínio público
de uma determinada pessoa, é possível manipular esse material.
Para lidar
com os riscos e saber a real autenticidade destes conteúdos, alguns cuidados
são essenciais, tanto com imagem quanto voz. Uma sugestão é, na hora de tirar
uma foto, evite clicá-la de frente e tire de lado. Em relação à recriação de
vozes, muito cuidado na forma de falar e usar sempre uma linguagem mais formal,
não tão coloquial, pois contribui para minimizar esse problema.
Aplicativo
de mensagens é um dos canais favoritos para a tentativa de fraude. É possível
se proteger com algumas recomendações dessa prática, que se tornou comum nos
últimos anos. O pedido de dinheiro por um áudio ou uma voz gravada, por
exemplo, vai ser de um celular que não está registrado na agenda de contatos.
Uma dica é orientar familiares a ligarem para terem certeza de que aquilo é um
ato criminoso.
Outra coisa
importante é como essas tecnologias podem avançar com segurança. Hoje, da mesma
forma que temos a IA para criar as deepfakes, temos IA para verificar se
aquele material foi criado por inteligência artificial e, eventualmente,
manipulado, recriado ou usado indevidamente. Conseguimos checar tecnologia
versus tecnologia, IA versus IA, para fazer essa verificação e avaliar sua
veracidade. São infindáveis possibilidades e a regulação e o uso ético são
mobilizações que já vemos acontecer em alguns lugares do mundo. O fato é que a
tecnologia foi criada para facilitar e agilizar, e não para desenvolver uma deepfake.
É um tema
muito novo, tudo é muito incipiente e estamos todos aprendendo. Por mais que
sejam muitos os esforços das plataformas de redes sociais alertar ou remover
esse tipo de conteúdo, distinguir o que é verdadeiro e o que é falso ainda é um
desafio. É uma tecnologia que muda numa velocidade muito grande; usá-la de
forma consciente pode minimizar os riscos que sua má utilização é capaz de
proporcionar.
Da mesma forma que a IA veio para facilitar o dia a dia
das pessoas e corporações, gerar mais eficiência e produtividade, a tecnologia
pode ser utilizada de maneira indevida, impulsionado a sofisticação dos golpes
e a geração de conteúdo sem consentimento. O cenário é desafiador e,
certamente, teremos de nos adaptar a esse novo momento da tecnologia para que a
IA não se torne inimiga da própria IA.
Nenhum comentário:
Postar um comentário