Material reúne casos reais, dados e recomendações para enfrentar o crescimento da violência digital contra mulheres impulsionada por sistemas de inteligência artificial
A Coalizão Direitos na Rede (CDR) lança a cartilha “Violência
de Gênero – Casos envolvendo uso de Inteligência Artificial”, publicação que documenta como tecnologias baseadas em
inteligência artificial vêm sendo utilizadas para ampliar práticas de violência
contra mulheres, incluindo deepfakes pornográficos, vigilância abusiva e
reprodução de vieses discriminatórios. O material reúne pesquisas nacionais e
internacionais, estudos de caso e recomendações para políticas públicas,
defendendo que a violência digital mediada por IA seja tratada como prioridade
regulatória no Brasil.
A iniciativa parte do diagnóstico de que a rápida expansão da
inteligência artificial generativa ocorre em um cenário ainda marcado por
lacunas regulatórias e ausência de mecanismos eficazes de proteção às vítimas.
Sem governança adequada, aponta a cartilha, sistemas automatizados tendem a
reproduzir o machismo estrutural já existente. Dados da pesquisa DataSenado
(2025) indicam que cerca de 3,7 milhões de mulheres brasileiras relataram ter
sofrido violência recente, mesmo com a redução percentual declarada nos últimos
anos. Ao longo da vida, 27% das mulheres afirmam já ter vivido situações de
violência, evidenciando a persistência estrutural do problema — agora ampliado
por novas dinâmicas digitais.
O material destaca que tecnologias baseadas em IA têm sido
utilizadas para potencializar práticas de abuso, como a criação e disseminação
de deepfakes de caráter sexual — que representam mais de 90% dos
conteúdos sintéticos identificados online e têm mulheres como principais
vítimas —, além do uso de ferramentas digitais para vigilância, perseguição e
exposição íntima não consentida. A cartilha também aponta crescimento das
denúncias de violência digital, incluindo assédio, monitoramento abusivo e
divulgação de imagens manipuladas, indicando que a inteligência artificial amplia
a escala, a velocidade e o alcance dessas agressões.
A cartilha organiza os casos analisados em cinco frentes
principais. A primeira aborda o uso de deepfakes como instrumento de
violência de gênero, destacando que mais de 98% dos conteúdos manipulados
disponíveis na internet têm caráter pornográfico e 99% vitimizam mulheres,
muitas vezes sem qualquer possibilidade rápida de remoção. O material também
reúne episódios envolvendo adolescentes e ambientes escolares, demonstrando a
ampliação do problema entre jovens.
Outro eixo analisa como sistemas de inteligência artificial
reproduzem desigualdades sociais. Estudos compilados apontam que 44% dos
sistemas de IA apresentam viés de gênero, enquanto 25% acumulam também viés
racial, afetando decisões automatizadas, reconhecimento facial, oportunidades
profissionais e acesso a serviços digitais.
A publicação ainda discute o crescimento da vigilância digital
como forma de controle e perseguição, destacando situações em que tecnologias
são utilizadas para monitoramento abusivo, exposição não consentida e
intimidação online. Segundo a Coalizão, a permanência de conteúdos íntimos
falsos em plataformas digitais, mesmo após proibições formais, evidencia
desafios de responsabilização tecnológica e proteção efetiva das vítimas.
“A explosão de casos de violência sexual instrumentalizada por
ferramentas de inteligência artificial evidencia que nossos freios legais em
vigor não dão conta da situação. Aplicações de IA generativa devem ser
proibidas de criar materiais de abuso, independentemente de essa ser ou não a
principal função do software. No caso de crianças e adolescentes, é necessário
atualizar o Código Penal e o Estatuto da Criança e do Adolescente para prever o
crime e as punições relacionadas à criação e distribuição de deepfakes erotizados
desses grupos. Também é fundamental que conteúdos sintéticos produzidos por
sistemas de IA sejam identificados e rotulados, para mitigar riscos e facilitar
investigações em casos de uso criminoso,” afirma Thiago Vizioli, Gerente de
Advocacy da Childhood Brasil, entidade integrante da Coalizão Direitos na Rede.
Embora destaque os riscos, a cartilha também aponta que a
inteligência artificial pode contribuir para identificar padrões de violência,
aprimorar políticas públicas e fortalecer estratégias de prevenção, desde que
acompanhada por mecanismos de governança democrática, transparência algorítmica
e participação social. Para a Coalizão Direitos na Rede, reconhecer a violência
de gênero facilitada pela IA como um problema público urgente é um passo
essencial para evitar que a inovação tecnológica aprofunde desigualdades já
existentes. A organização enfatiza, entre suas principais recomendações, a
adoção de salvaguardas contra vieses algorítmicos, a criação de mecanismos
ágeis de remoção de conteúdos abusivos, a responsabilização proporcional das
plataformas digitais, a inclusão da perspectiva de gênero na regulação da
inteligência artificial e o fortalecimento de políticas públicas de proteção
digital às vítimas.
Saiba mais em: Link
Nenhum comentário:
Postar um comentário