Pesquisar no Blog

quinta-feira, 7 de maio de 2026

Deepfakes, vigilância abusiva e vieses algorítmicos ampliam violência de gênero, aponta cartilha da Coalizão Direitos na Rede

 Material reúne casos reais, dados e recomendações para enfrentar o crescimento da violência digital contra mulheres impulsionada por sistemas de inteligência artificial

 

A Coalizão Direitos na Rede (CDR) lança a cartilha “Violência de Gênero – Casos envolvendo uso de Inteligência Artificial”, publicação que documenta como tecnologias baseadas em inteligência artificial vêm sendo utilizadas para ampliar práticas de violência contra mulheres, incluindo deepfakes pornográficos, vigilância abusiva e reprodução de vieses discriminatórios. O material reúne pesquisas nacionais e internacionais, estudos de caso e recomendações para políticas públicas, defendendo que a violência digital mediada por IA seja tratada como prioridade regulatória no Brasil. 

A iniciativa parte do diagnóstico de que a rápida expansão da inteligência artificial generativa ocorre em um cenário ainda marcado por lacunas regulatórias e ausência de mecanismos eficazes de proteção às vítimas. Sem governança adequada, aponta a cartilha, sistemas automatizados tendem a reproduzir o machismo estrutural já existente. Dados da pesquisa DataSenado (2025) indicam que cerca de 3,7 milhões de mulheres brasileiras relataram ter sofrido violência recente, mesmo com a redução percentual declarada nos últimos anos. Ao longo da vida, 27% das mulheres afirmam já ter vivido situações de violência, evidenciando a persistência estrutural do problema — agora ampliado por novas dinâmicas digitais. 

O material destaca que tecnologias baseadas em IA têm sido utilizadas para potencializar práticas de abuso, como a criação e disseminação de deepfakes de caráter sexual — que representam mais de 90% dos conteúdos sintéticos identificados online e têm mulheres como principais vítimas —, além do uso de ferramentas digitais para vigilância, perseguição e exposição íntima não consentida. A cartilha também aponta crescimento das denúncias de violência digital, incluindo assédio, monitoramento abusivo e divulgação de imagens manipuladas, indicando que a inteligência artificial amplia a escala, a velocidade e o alcance dessas agressões. 

A cartilha organiza os casos analisados em cinco frentes principais. A primeira aborda o uso de deepfakes como instrumento de violência de gênero, destacando que mais de 98% dos conteúdos manipulados disponíveis na internet têm caráter pornográfico e 99% vitimizam mulheres, muitas vezes sem qualquer possibilidade rápida de remoção. O material também reúne episódios envolvendo adolescentes e ambientes escolares, demonstrando a ampliação do problema entre jovens. 

Outro eixo analisa como sistemas de inteligência artificial reproduzem desigualdades sociais. Estudos compilados apontam que 44% dos sistemas de IA apresentam viés de gênero, enquanto 25% acumulam também viés racial, afetando decisões automatizadas, reconhecimento facial, oportunidades profissionais e acesso a serviços digitais. 

A publicação ainda discute o crescimento da vigilância digital como forma de controle e perseguição, destacando situações em que tecnologias são utilizadas para monitoramento abusivo, exposição não consentida e intimidação online. Segundo a Coalizão, a permanência de conteúdos íntimos falsos em plataformas digitais, mesmo após proibições formais, evidencia desafios de responsabilização tecnológica e proteção efetiva das vítimas. 

“A explosão de casos de violência sexual instrumentalizada por ferramentas de inteligência artificial evidencia que nossos freios legais em vigor não dão conta da situação. Aplicações de IA generativa devem ser proibidas de criar materiais de abuso, independentemente de essa ser ou não a principal função do software. No caso de crianças e adolescentes, é necessário atualizar o Código Penal e o Estatuto da Criança e do Adolescente para prever o crime e as punições relacionadas à criação e distribuição de deepfakes erotizados desses grupos. Também é fundamental que conteúdos sintéticos produzidos por sistemas de IA sejam identificados e rotulados, para mitigar riscos e facilitar investigações em casos de uso criminoso,” afirma Thiago Vizioli, Gerente de Advocacy da Childhood Brasil, entidade integrante da Coalizão Direitos na Rede. 

Embora destaque os riscos, a cartilha também aponta que a inteligência artificial pode contribuir para identificar padrões de violência, aprimorar políticas públicas e fortalecer estratégias de prevenção, desde que acompanhada por mecanismos de governança democrática, transparência algorítmica e participação social. Para a Coalizão Direitos na Rede, reconhecer a violência de gênero facilitada pela IA como um problema público urgente é um passo essencial para evitar que a inovação tecnológica aprofunde desigualdades já existentes. A organização enfatiza, entre suas principais recomendações, a adoção de salvaguardas contra vieses algorítmicos, a criação de mecanismos ágeis de remoção de conteúdos abusivos, a responsabilização proporcional das plataformas digitais, a inclusão da perspectiva de gênero na regulação da inteligência artificial e o fortalecimento de políticas públicas de proteção digital às vítimas.
  

Coalizão Direitos na Rede (CDR)
Saiba mais em: Link

 

Nenhum comentário:

Postar um comentário

Posts mais acessados