Especialista explica
por que a inteligência artificial pode reforçar autoenganoSabe aquele aperto no peito que não espera horário de sessão? Aquela vontade de falar tudo para alguém e despejar as emoções e vulnerabilidades? Pois é, muita gente tem recorrido a inteligências artificiais para aliviar o peso do dia. A prática, que pode parecer inofensiva à primeira vista, desafia profissionais da saúde mental e a sociedade no geral. Izabella Melo, professora de Psicologia do Centro Universitário de Brasília (CEUB), alerta que as consultas ao robô criam dualidades entre o alívio imediato e o engano perigoso.
Fazer consultas ao Chat GPT poder parecer cômodo e rápido, gerando um alívio na angústia, mas a certeza é de que o problema continuará lá, conforme alerta a especialista. "Parece até mágica: você escreve, o robô responde e pronto, a dor parece que diminui. Mas isso não é terapia. É só catarse, aquele suspiro de alívio que vem depois do choro, mas não resolve o problema de verdade”, explica Melo.
A docente do CEUB revela que que tem observado dois
tipos de comportamento relacionados à nova “tendência”. De um lado, indivíduos
tentam transformar o chatbot em um terapeuta de estimação, mesmo com o aviso
claro de que ele não é. Do outro, pessoas que já fazem terapia recorrem à IA
como quem manda áudio para um amigo às 3 horas da manhã. “Pode ajudar a
organizar as ideias e colocar para fora. Mas não substitui a escuta qualificada
de um profissional”, reforça.
A voz que consola e concorda com
tudo
O problema, segundo Izabella Melo, é que a IA não impõe limites. E isso, em uma relação terapêutica de verdade, é essencial. “O terapeuta vai acolher, mas também vai provocar, cutucar e questionar. É esse desconforto que leva ao crescimento. O robô, por outro lado, foi feito para agradar. Ele aprende com você como te deixar confortável e vai servir isso muito bem”.
As desvantagens existem em muitas camadas. Para além do risco emocional, existe a questão ética presente no exercício da psicologia. “No consultório, o paciente tem garantias de sigilo, acolhimento e proteção. Com a IA, não se sabe para onde vão essas informações. Quem acessa, quem armazena, quem lucra com isso?”, questiona.
A docente do CEUB ainda alerta que as inteligências
artificiais são alimentadas com todos os tipos de dados humanos, inclusive os
preconceitos. “Imagina uma adolescente se entendendo lésbica, buscando apoio na
IA. Se ela perguntar se isso é certo ou errado e o sistema tiver sido treinado
com discursos preconceituosos, a resposta pode ser desastrosa. E quem vai se
responsabilizar?”.
Entre o oráculo e o divã
Outro fenômeno difundido em trends das redes sociais é o efeito “oráculo”, com a busca, por meio de prompts de IA, de uma resposta mágica, como se ela fosse uma entidade sábia, imparcial, quase divina. “Mas a IA não é neutra. Ela é feita por humanos, alimentada por humanos, treinada por humanos. E, como sabemos, humanos erram e muito.”
Enquanto isso, a terapia caminha por outro trilho, posicionando o terapeuta como um parceiro de reflexão. “Ele ajuda a enxergar com mais clareza, mas sem te dizer o que fazer. E isso exige tempo, vínculo, escuta, tentativa e erro.” Recentemente, o Conselho Federal de Psicologia lançou orientações sobre o uso ético das IAs na prática profissional, relembrando que o psicólogo deve garantir direitos, combater discriminação e agir com responsabilidade – o que também vale quando se fala em tecnologia.
Sobre o futuro dos “gurus e conselheiros robôs”,
Izabella é cautelosa e reforça que o início da terapia pode ser como tirar uma
mochila pesada das costas, mas depois disso, é preciso entender o que se
carrega dentro dela. “A IA pode ser útil para coisas simples, como organizar
agenda e escrever textos básicos. Mas ela nunca vai substituir o toque humano,
a escuta empática, o olhar que atravessa o silêncio”, finaliza a docente do
CEUB.
Nenhum comentário:
Postar um comentário