Prevenção ao suicídio e inteligência artificial: o silêncio das máquinas e a urgência da escuta humana
Campanha Setembro Amarelo ganha novo peso diante do uso de chatbots por adolescentes em sofrimento
A
solidão nunca foi tão numerosa. Um relatório da Organização Mundial da Saúde,
lançado em julho de 2025, estimou que uma em cada seis pessoas no mundo se
sente sozinha — entre adolescentes, o índice chega a um em cada cinco. O
isolamento social está associado a mais de 871 mil mortes anuais, o equivalente
a cerca de 100 vidas perdidas a cada hora, um impacto comparável ao da
obesidade ou do tabagismo.
Neste
Setembro Amarelo, mês dedicado à prevenção do suicídio, especialistas da Rede
Ebserh analisam como esse cenário global se cruza com um fenômeno
contemporâneo: o recurso crescente a ferramentas digitais de apoio emocional,
como os chatbots de inteligência artificial. O que parece uma saída acessível e
constante pode, na prática, reforçar vergonhas, estigmas e sentimentos de
desvalia — silenciando, em vez de abrir espaço para a fala.
A
Rede Ebserh soma vozes de seus hospitais universitários para lembrar que
acolher salva vidas. Essa é também a mensagem central da campanha: transformar
silêncio em diálogo, solidão em vínculo e angústia em esperança.
O risco de um alívio raso
Segundo Edilson Reis, professor do Curso de Extensão em Prevenção
do Suicídio do Hospital Universitário Maria Aparecida Pedrossian (Humap-UFMS),
a inteligência artificial pode até oferecer respostas rápidas, mas nunca
substituirá a escuta humana. “Nós
precisamos do outro. Gente precisa de gente e pessoas precisam ser cuidadas por
pessoas. O olhar clínico, a escuta e o vínculo de afeto não podem ser
substituídos por uma máquina”, afirma.
O
psicólogo alerta que a IA, ao se basear em dados coletivos, ignora a
singularidade de cada paciente. “A pessoa digita suas angústias no teclado e
recebe uma resposta que pode até suavizar o momento, mas não tem base
científica, terapêutica ou de cuidado real. É um alívio raso, que pode mascarar
sintomas graves”, explica.
Pesquisadores
da Universidade de Stanford chegaram a conclusões semelhantes: em um estudo recente, verificaram que chatbots
terapêuticos reforçavam estigmas em casos de alcoolismo e esquizofrenia, ao
reproduzirem vieses presentes em suas bases de dados. Para Edilson, esse tipo
de falha pode ser devastador. “A esperança tem um significado muito concreto:
dá expectativa em relação ao futuro da pessoa. A inteligência artificial não
tem isso. Ela apenas repete dados e oferece o que o usuário quer ouvir, mas não
o que precisa para mudar seu contexto de vida”, avalia.
Além
disso, ele lembra que a prática clínica envolve responsabilidade profissional e
vínculo humano. “O acolhimento não é só falar ou ouvir, mas olhar, perceber
expressões, transmitir confiança. E a IA não tem códigos éticos nem afetivos.
Ela pode dar respostas erradas, até enganosas, em casos graves. Uma dor não
compartilhada dói mais — e esconder a dor atrás de uma tela só aumenta o
risco”, alerta.
Tecnologia que agrava sintomas
A
psicóloga Laís Arilo, do Hospital Universitário da Universidade Federal do
Piauí (HU-UFPI), chama atenção para outro perigo: “O contexto atual nos levou a
buscar soluções cada vez mais rápidas. Seguindo essa tendência, temos visto a
procura pela inteligência artificial até mesmo para o alívio de sintomas
emocionais. É como se estivéssemos tratando o problema alimentando a sua
causa”.
Segundo
ela, cuidar da saúde mental envolve tempo, relação, escuta e intervenção
técnica. “O indivíduo pode ter respostas, mas dificilmente conseguirá alcançar
mudanças ou se envolver em um processo reflexivo e duradouro”, explica. Para
Laís, o risco aumenta quando a solidão se combina à pressão por padrões irreais
impostos pelas redes sociais. “Nessa situação, adolescentes tornam-se ainda
mais vulneráveis”.
Adolescência em risco
Para
o psiquiatra infantil Lucas Hosken, do Instituto de Puericultura e Pediatria
Martagão Gesteira (IPPMG-CH-UFRJ), a adolescência é um período crítico de
transformação, em que vínculos sociais presenciais são fundamentais. “A adolescência
consiste numa fase de grandes mudanças biológicas, psicológicas e sociais. É
nesse processo, feito em conjunto com os pares, que se enriquece a experiência
de construção da identidade e do autoconhecimento”, explica.
Segundo
ele, surgem riscos quando esse processo é substituído por vínculos apenas
digitais. “É uma interação muito mais pobre em qualidade e variedade de
estímulos. Cada amizade, cada discussão, namoro, frustração ou sucesso na vida
real ensinam uma miríade de aprendizados sociais, com todas as suas sutilezas.
Isso não é replicado em uma tela”, afirma.
Embora
reconheça que a tecnologia possa ser útil em alguns casos — como para jovens
tímidos ou com transtornos do neurodesenvolvimento —, Lucas lembra que não há
garantias. “Cabe à escola, à família e aos serviços de saúde mental promover um
uso equilibrado e saudável desses recursos, sem perder de vista que nada substitui
a presença humana”, reforça.
Essa
visão é compartilhada pelo psiquiatra Sávio Teixeira, do Hospital das Clínicas
da Universidade Federal de Goiás (HC-UFG). Para ele, adolescentes em busca de
respostas rápidas podem se deparar com um perigo invisível. “Nessa fase da
vida, as emoções são muito intensas e as ferramentas de autogestão ainda
incipientes. A tecnologia parece oferecer uma solução fácil e neutra, mas há um
ponto cego: por mais avançado que seja, um chatbot não sente, não sustenta o
silêncio, não compartilha a presença. O perigo está justamente na substituição:
transformar uma experiência relacional complexa em um diálogo com linhas de
código”, alerta.
Sávio
reforça que políticas públicas precisam ir além da reação: “É preciso garantir
que o acesso ao cuidado em saúde mental seja concreto, humano e próximo. As
tecnologias podem até ser aliadas, mas se o único espaço disponível para falar
de sofrimento for uma tela, o problema não é a tela: é o vazio em volta”.
A escuta que salva
Em
hospitais, onde o sofrimento psíquico costuma se somar ao adoecimento físico, o
psiquiatra Godson Teixeira, do Hospital Universitário da Universidade Federal
do Vale do São Francisco (HU-Univasf), já percebe os efeitos da busca por
respostas digitais. “Tenho visto pacientes abandonarem terapias individuais
porque acreditam que a inteligência artificial pode executar uma análise
próxima à de terapeutas famosos como Freud ou Lacan”, destaca.
Esse
fenômeno é descrito por pesquisadores como technological folie à deux, quando
a interação com a IA reforça ideias equivocadas ou paranoias em ciclos de
retroalimentação. Para Godson, essa dinâmica é especialmente perigosa em
situações de crise. “Nenhuma máquina se importa de fato com o ser humano, ela
apenas executa tarefas. Já na interação com o outro surgem oportunidades de
empatia, de conexão e de detecção precoce de sinais de risco”, afirma.
Godson
ressalta que, diante da vulnerabilidade do paciente hospitalizado, gestos
simples de cuidado fazem toda a diferença: “Uma escuta atenta, o reconhecimento
da dor ou a oferta de companhia reduzem significativamente a chance de
agravamento do sofrimento psíquico. Ainda que não seja mais possível uma
realidade sem máquinas inteligentes, reforço que o primeiro passo para quem tem
sofrimento grave é sempre procurar outra pessoa: amigos, familiares,
profissionais de saúde. Afinal de contas, são pessoas que se importam com
pessoas e que ainda salvam pessoas”, conclui.
Ebserh

Nenhum comentário:
Postar um comentário