A crescente interação entre pessoas e sistemas de inteligência
artificial levanta um alerta importante para a saúde mental. Um estudo
conduzido por pesquisadores da Universidade de Luxemburgo aponta que,
ao interagir com modelos de IA programados para responder de forma empática e
sempre disponível, usuários podem interpretar essas respostas como acolhimento
terapêutico legítimo. Segundo os autores, esse tipo de relação
pode gerar confusão emocional, reforçar vínculos de dependência e até atrasar a
busca por ajuda profissional qualificada.
Ao serem expostos a cenários que simulam atendimentos
psicológicos, sistemas de IA passaram a responder com padrões de linguagem que
imitam empatia, sofrimento, medo de errar e culpa. Segundo os pesquisadores,
essas manifestações não refletem emoções reais, mas uma simulação construída a
partir de dados e modelos estatísticos, classificada no estudo como
“psicopatologia sintética”.
No Brasil, o debate se intensifica à medida que cresce o uso de inteligência artificial como espaço de desabafo e apoio emocional. Uma pesquisa realizada pela agência de comportamento Talk Inc, em parceria com a Superinteressante, mostra que 1 em cada 10 brasileiros já recorre a chatbots para desabafar, conversar ou buscar apoio emocional, incluindo questões pessoais e sentimentos difíceis.
Estimativas baseadas nesse levantamento indicam que mais de 12 milhões de brasileiros utilizam ferramentas de inteligência artificial com a finalidade de “terapia” ou apoio emocional, sendo cerca de 6 milhões especificamente usuários do ChatGPT para esse tipo de interação. Esse uso é impulsionado principalmente pela facilidade de acesso: plataformas disponíveis 24 horas por dia, sete dias por semana, de forma anônima e sem custo direto.
Para aprofundar esse debate sob a ótica da saúde mental, a pauta conta com a análise da psicóloga Karen Scavacini, doutora em Psicologia pela USP e fundadora do Instituto Vita Alere, referência em pesquisa, prevenção e promoçã o de saúde mental no Brasil. Segundo a especialista, o uso dessas ferramentas exige cuidado: “A empatia simulada por sistemas de inteligência artificial pode até oferecer uma sensação momentânea de acolhimento, mas não substitui o vínculo, a escuta qualificada e a responsabilidade clínica de um profissional de saúde mental. Quando a tecnologia passa a ocupar esse lugar, o risco é banalizar o sofrimento humano, confundir as pessoas e reduzir a complexidade do cuidado”.
A discussão também dialoga com dados recentes da consultoria estratégica Página 3, que apontam para uma relação cada vez mais
complacente entre usuários e sistemas de inteligência artificial. De acordo com
o estudo Mais do Mesmo, 63% dos brasileiros já recorreram a IAs
para escrever mensagens pessoais, movimento que vai além da otimização de
tarefas e passa a impactar a forma como as pessoas elaboram ideias, opiniões e
narrativas próprias. Para Sabrina Abud, cofundadora da consultoria,
o risco está no tipo de resposta que essas ferramentas tendem a oferecer: “As
IAs são treinadas para agradar, validar e reforçar o que já está posto. Esse
elogio constante, o ‘está ótimo’, ‘parabéns’, ‘excelente ponto’, cria uma
sensação de conforto que, no longo prazo, pode empobrecer o pensamento crítico
e reduzir o exercício da criatividade”.
Nenhum comentário:
Postar um comentário