A evolução tecnológica trouxe inúmeras facilidades
para o dia a dia, mas também abriu espaço para formas cada vez mais
sofisticadas de fraude. Entre elas, uma das mais preocupantes é o uso de
inteligência artificial para a criação de deepfakes – vídeos e áudios falsos
extremamente realistas.
Se antes os golpes dependiam principalmente de
engenharia social, hoje contam com ferramentas capazes de simular vozes, rostos
e até comportamentos. Na prática, isso significa que um consumidor pode receber
uma ligação ou mensagem aparentemente enviada por um familiar, gerente de banco
ou autoridade, mas, na verdade, se trata de uma fraude.
No Brasil, os números são alarmantes. Segundo o
Relatório de Identidade e Fraude 2025 da Serasa Experian, 51% dos brasileiros
relataram ter sido vítimas de algum tipo de fraude digital em 2024, e a
proporção é ainda maior entre pessoas com mais de 50 anos, que correspondem a
57,8% das vítimas.
Relatórios de mercado, como o Identity Fraud Report
2025-2026 da Sumsub, mostram ainda que fraudes envolvendo deepfakes e
identidades sintéticas cresceram 126% no Brasil em 2025, e que o país responde
por quase 39% de todos os casos detectados na América Latina.
Para a pessoa idosa, o risco é ainda maior. Muitos
não tiveram contato constante com ferramentas digitais e podem ter dificuldade
em identificar sinais de manipulação tecnológica. A combinação entre
vulnerabilidade, confiança e tecnologia avançada cria um terreno fértil para
criminosos.
Esse problema não é apenas individual, é estrutural.
Mesmo antes da popularização dessas ferramentas, fraudes baseadas em vínculo
emocional já produziam impactos relevantes. O chamado ‘golpe do amor’, em que
criminosos constroem relações afetivas para obter vantagens financeiras,
ilustra bem como a manipulação da confiança é um elemento central nesse tipo de
crime. Com o uso de recursos como deepfakes e simulação de identidade, essa
prática tende a se tornar ainda mais convincente e difícil de identificar.
Do ponto de vista jurídico, a discussão ainda está em
construção, mas alguns princípios oferecem diretrizes importantes. O Código de
Defesa do Consumidor (Lei nº 8.078/1990) estabelece o dever de segurança nas
relações de consumo, incluindo a proteção contra fraudes previsíveis e
evitáveis. Diante de tecnologias como deepfake, a previsibilidade do risco não
pode mais ser ignorada.
Empresas que operam no ambiente digital, como
instituições financeiras, aplicativos de mensagens, redes sociais, plataformas
de videochamada e serviços de atendimento digital, precisam incorporar
mecanismos mais robustos de autenticação e verificação. Além disso, é
necessário repensar a
lógica de responsabilização. Exigir que o
consumidor identifique sozinho o golpe é, no mínimo, desproporcional,
principalmente quando a fraude se torna praticamente indistinguível da
realidade.
Outro ponto crítico é a ausência de regulamentação
específica sobre o uso dessas tecnologias em fraudes. Embora a legislação
brasileira já ofereça ferramentas importantes, o avanço tecnológico exige
atualizações constantes para evitar lacunas que possam ser exploradas. Mais do
que nunca, o debate sobre proteção de dados, segurança digital e direitos do
consumidor precisa incluir o recorte etário. Ignorar a vulnerabilidade da
pessoa idosa é permitir que uma parcela significativa da população fique ainda
mais exposta.
A tecnologia não é, por si só, o problema. O
desafio está em como ela é utilizada e, principalmente, em como o sistema
jurídico e as empresas se adaptam para mitigar seus riscos. Sem essa adaptação,
o que se desenha é um cenário preocupante, com fraudes cada vez mais
sofisticadas, consumidores mais expostos e um sistema que corre atrás de
prejuízos que poderiam ser evitados.
Nenhum comentário:
Postar um comentário