Pesquisar no Blog

sábado, 17 de janeiro de 2026

Acolhimento digital não é terapia, alerta estudo sobre uso da IA


A crescente interação entre pessoas e sistemas de inteligência artificial levanta um alerta importante para a saúde mental. Um estudo conduzido por pesquisadores da Universidade de Luxemburgo aponta que, ao interagir com modelos de IA programados para responder de forma empática e sempre disponível, usuários podem interpretar essas respostas como acolhimento terapêutico legítimo. Segundo os autores, esse tipo de relação pode gerar confusão emocional, reforçar vínculos de dependência e até atrasar a busca por ajuda profissional qualificada. 

Ao serem expostos a cenários que simulam atendimentos psicológicos, sistemas de IA passaram a responder com padrões de linguagem que imitam empatia, sofrimento, medo de errar e culpa. Segundo os pesquisadores, essas manifestações não refletem emoções reais, mas uma simulação construída a partir de dados e modelos estatísticos, classificada no estudo como “psicopatologia sintética”. 

No Brasil, o debate se intensifica à medida que cresce o uso de inteligência artificial como espaço de desabafo e apoio emocional. Uma pesquisa realizada pela agência de comportamento Talk Inc, em parceria com a Superinteressante, mostra que 1 em cada 10 brasileiros já recorre a chatbots para desabafar, conversar ou buscar apoio emocional, incluindo questões pessoais e sentimentos difíceis.

Estimativas baseadas nesse levantamento indicam que mais de 12 milhões de brasileiros utilizam ferramentas de inteligência artificial com a finalidade de “terapia” ou apoio emocional, sendo cerca de 6 milhões especificamente usuários do ChatGPT para esse tipo de interação. Esse uso é impulsionado principalmente pela facilidade de acesso: plataformas disponíveis 24 horas por dia, sete dias por semana, de forma anônima e sem custo direto. 

Para aprofundar esse debate sob a ótica da saúde mental, a pauta conta com a análise da psicóloga Karen Scavacini, doutora em Psicologia pela USP e fundadora do Instituto Vita Alere, referência em pesquisa, prevenção e promoçã o de saúde mental no Brasil. Segundo a especialista, o uso dessas ferramentas exige cuidado: “A empatia simulada por sistemas de inteligência artificial pode até oferecer uma sensação momentânea de acolhimento, mas não substitui o vínculo, a escuta qualificada e a responsabilidade clínica de um profissional de saúde mental. Quando a tecnologia passa a ocupar esse lugar, o risco é banalizar o sofrimento humano, confundir as pessoas e reduzir a complexidade do cuidado”.

A discussão também dialoga com dados recentes da consultoria estratégica Página 3, que apontam para uma relação cada vez mais complacente entre usuários e sistemas de inteligência artificial. De acordo com o estudo Mais do Mesmo, 63% dos brasileiros já recorreram a IAs para escrever mensagens pessoais, movimento que vai além da otimização de tarefas e passa a impactar a forma como as pessoas elaboram ideias, opiniões e narrativas próprias. Para Sabrina Abud, cofundadora da consultoria, o risco está no tipo de resposta que essas ferramentas tendem a oferecer: “As IAs são treinadas para agradar, validar e reforçar o que já está posto. Esse elogio constante, o ‘está ótimo’, ‘parabéns’, ‘excelente ponto’, cria uma sensação de conforto que, no longo prazo, pode empobrecer o pensamento crítico e reduzir o exercício da criatividade”.

 

Karen Scavacini - psicóloga e pesquisadora, mestre em Saúde Pública pelo Karolinska Institutet (Suécia) e doutora em Psicologia pela USP. Fundou em 2013 o Instituto Vita Alere, pioneiro em pós‑venção e saúde mental digital no Brasil. Representa o país na International Association for Suicide Prevention (IASP) e é fundadora da ABEPS. Sua atuação combina ambientes digitais, educação emocional e pesquisa aplicada em saúde mental.


Nenhum comentário:

Postar um comentário

Posts mais acessados