A prevenção de fraudes em sistemas de autenticação facial utilizada por instituições financeiras e governamentais é um tema de extrema importância e que vem ganhando cada vez mais espaço. Essa relevância é necessária para disseminar conhecimento e fomentar a colaboração em prol do aprimoramento contínuo das tecnologias de mercado, visando uma significativa redução de fraudes.
Por meio de feedback dos nossos clientes, observamos um aumento nos ataques
cibernéticos onde os fraudadores se valem de avançadas ferramentas de
inteligência artificial para criar deepfakes - imagens sintéticas
altamente realistas que podem enganar sistemas de reconhecimento facial.
Um dado do Gartner revela que até 2026 o deepfake vai fazer com que 30% das
empresas deixem de acreditar na eficácia de soluções de reconhecimento facial
para verificação e autenticação de identidade, devido às ameaças que utilizam
imagens e vídeos geradas por Inteligência Artificial (IA) para criar falsas
biometrias faciais.
Um dos ataques identificados estava utilizando uma tecnologia que permite aos
usuários trocarem rostos com outra pessoa, em tempo real, usando a câmera do
dispositivo. Tal vulnerabilidade é agravada pelo fácil acesso a informações
pessoais e fotos disponíveis na internet, decorrentes de brechas em sistemas e
vazamentos de dados.
São ações que têm se tornado cada vez mais sofisticadas e que impactam
diretamente na segurança corporativa, uma vez que o fraudador pode modificar
configurações avançadas e instalar aplicativos personalizados para manipulação
do sistema de forma mais profunda, além de criar imagens ou vídeos
hiper-realistas para fraudes e ataques cibernéticos nos processos de
autenticação.
Além disso, existem módulos que permitem alterar a localização do dispositivo
para um local falso, o que ajuda a evitar a detecção de mudanças de
comportamento de habitualidade, dificultando a identificação de atividades
suspeitas. Embora este tipo de ataque utilize ferramentas de acesso público e sua
execução não seja tecnicamente complexa, a sua eficácia tem sido motivo de
grande preocupação entre as instituições afetadas que utilizam algumas
ferramentas bastante conhecidas no mercado para realizar o processo de
autenticação facial.
É importante ressaltar que já existem soluções robustas de ponta que fazem
análises aprofundadas com eficiência e que permitem não só a identificação
dessas tentativas fraudulentas, de forma comportamental, mas também a
implementação de medidas eficazes para permitir à instituição bloqueá-las
proativamente, mesmo quando não estejam utilizando a tecnologia de autenticação
facial.
São soluções resilientes a uma série de ataques de falsificação, garantindo
alta segurança contra os principais métodos que tentam burlar essas ferramentas,
como fotos impressas e digitais, vídeos, fotos de telas, máscaras de papel e
máscaras 3D.
Modelos de tecnologias com Inteligência Artificial impulsionados por algoritmos
avançados, com uso extensivo de deep learning, machine learning e redes
neurais, são usados para treinar sistemas para enfrentar cenários complexos,
garantindo uma detecção precisa de fraudes e spoofing e bloqueando tentativas
de outros métodos de falsificação de identidade. Essa abordagem contínua de
aprendizado de máquina permite que a tecnologia se adapte a novas ameaças,
proporcionando uma segurança dinâmica e eficaz, enquanto mantém uma experiência
de autenticação fluida e intuitiva para os usuários.
Mesmo diante de limitações sistêmicas que possam impedir a detecção de deepfakes
utilizando técnicas de liveness, é essencial garantir a
segurança e a integridade dos processos de autenticação para que as
organizações enfrentem esses desafios e fortaleçam a proteção de seus dados
contra ameaças digitais.
Carlos Vieira
Nenhum comentário:
Postar um comentário