Nesta quinta-feira (14), o Instagram anunciou que vai começar a notificar pais e responsáveis no Brasil sempre que adolescentes realizarem buscas repetidas por termos ligados a suicídio e automutilação dentro da plataforma. O alerta faz parte de uma expansão das ferramentas de supervisão parental da Meta e chega em um momento em que o uso das redes sociais por menores e os impactos sobre a saúde mental voltam ao centro do debate público.
As notificações serão enviadas por WhatsApp, SMS, e-mail e também pelo próprio aplicativo, desde que a supervisão parental esteja ativada. Segundo a empresa, o objetivo é ampliar a capacidade de resposta de responsáveis em situações consideradas sensíveis, sem depender apenas das ferramentas internas de bloqueio e direcionamento a canais de apoio já existentes.
A Meta afirma que a medida não altera o funcionamento da busca dentro do Instagram. Quando um adolescente realiza esse tipo de pesquisa, a plataforma já bloqueia parte dos resultados e direciona o usuário para recursos de დახმარ e prevenção ao suicídio. Os novos alertas, segundo a empresa, entram como uma camada adicional voltada aos responsáveis.
A iniciativa será implementada no Brasil na próxima semana e já está ativa em países como Estados Unidos, Reino Unido, Canadá e Austrália. Índia e União Europeia também estão na lista de expansão. O recurso depende, no entanto, de um ponto central: a ativação prévia da supervisão parental, o que limita seu alcance ao universo de contas monitoradas.
Nos bastidores dessa discussão, especialistas em saúde mental alertam para o risco de respostas exclusivamente tecnológicas a um problema que é, antes de tudo, multifatorial. Para Karen Scavacini, psicóloga pela USP, especialista em saúde mental e fundadora do Instituto Vita Alere, a medida pode ter efeito protetivo em alguns contextos, mas não substitui o acompanhamento e cuidado “É uma medida importante e bem-vinda, mas que funciona de forma efetiva se vier acompanhada de orientação aos pais sobre como abordar esse tema, como conversar com os adolescentes e onde buscar apoio especializado. Também é essencial olhar para quais conteúdos são direcionados aos jovens a partir dessas buscas. Além disso, é preciso ir além das contas com supervisão parental e entender como as plataformas atuam quando identificam sinais de risco em usuários que não estão sob esse controle. A transparência dessas ações é determinante para avaliar o alcance real da proposta”, afirma.
A Meta também anunciou, na semana passada, o uso de inteligência artificial para estimar a idade de usuários no Instagram e no Facebook com base em padrões comportamentais e características físicas. A empresa afirma que não utilizará reconhecimento facial para esse processo, diferentemente de outras plataformas que recorrem a selfies ou documentos de identidade para verificação etária.
A combinação dessas medidas ocorre em meio a uma pressão crescente
sobre redes sociais para reforçar mecanismos de proteção a crianças e
adolescentes. Ao mesmo tempo, o debate segue aberto: até que ponto a segurança
digital deve depender de sistemas de detecção e alerta, e qual é o papel das
famílias e das próprias plataformas na prevenção de crises de saúde mental.
Karen Scavacini
- psicóloga e pesquisadora, mestre em Saúde Pública pelo Karolinska Institutet
(Suécia) e doutora em Psicologia pela USP. Fundou em 2013 o
Instituto Vita Alere, pioneiro em posvenção e saúde mental digital no Brasil.
Representa o país na International Association for Suicide Prevention (IASP) e
é fundadora da ABEPS. Sua atuação combina ambientes digitais, educação
emocional e pesquisa aplicada em saúde mental.
Nenhum comentário:
Postar um comentário