1 em cada 10 brasileiros usa inteligência artificial como espaço de desabafo
O brasileiro está cada vez mais usando o ChatGPT e outras
plataformas de inteligência artificial (IA) para fazer terapia. Já são mais de
12 milhões de pessoas no país usando a tecnologia com esse propósito, segundo
estimativa da agência de estudos de comportamento Talk Inc. A pesquisa também
trouxe à tona uma tendência crescente no Brasil: 1 em cada 10 brasileiros
recorre a chats de inteligência artificial para desabafar, buscar conselhos ou
fazer terapia.
A nova tendência apresenta o debate da inteligência artificial
como uma opção ao tratamento terapêutico tradicional. Para muitos, a IA é um
lugar de conforto e de inclusão por não ter os custos das terapias. Por outro
lado, as inteligências artificiais possuem algoritmos ainda primários e
tendenciosos, com inúmeros relatos de que a IA corrobora com tudo que é
questionado, reforçando padrões e atuando de forma distante do que a medicina
recomenda.
O diretor do Hospital Heidelberg, referência nacional em
tratamento psicológico e psiquiátrico, Roberto Ratzke, afirma que buscar apoio
emocional exclusivamente por meio de uma inteligência artificial pode parecer
prático, rápido, acessível, só que os riscos precisam ser avaliados. “Eles são
programas que em geral elogiam e acabam não tendo o papel de mostrar e de
causar desconforto no paciente. As pessoas buscam terapia para refletir e
pensar no que está errado ou certo em suas vidas. Não existe terapia sem dor”,
avalia.
Segundo a psicóloga Brenda Marinello, também do Hospital
Heidelberg, outro ponto de debate sobre a IA é a questão ética. “Quem vai
garantir o sigilo da informação? Na terapia isso é lei. O contrato de uso da IA
não é seguro”, diz Brenda.
Sentimentos e entendimento
A inteligência artificial não sente como os humanos. Existe uma
grande diferença entre compreender, entender uma emoção e sentir a emoção.
“Sentir é corporal, atravessa nossa biologia e nossa história pessoal. A
inteligência artificial pode reconhecer os padrões e devolver respostas, mas
ela não percebe tom de voz, pausa, gestos ou silêncios que carregam
significado”, conta.
O chatbot irá simular uma empatia, as respostas serão acolhedoras
de acordo com o que está sendo dito, sem acessar a experiência emocional de
estar diante de outro ser humano. “Só no contato humano é possível um
acolhimento genuíno, uma sensibilidade, uma presença real, uma empatia
verdadeira. É muito comum a gente ouvir frases do tipo: eu falo mais com IA do
que com meus amigos, eu sinto que ela me entende, eu desabafo com a IA. Isso
diz muito sobre um vazio afetivo que muitas pessoas já carregam e que é
preenchido com zero conflito”, reflete. Para a especialista, o risco maior é
que a inteligência artificial reduza o desejo por vínculos humanos ao não
oferecer riscos, confrontos, julgamentos ou frustrações.
Porém, é por meio das relações humanas que se aprende a tolerar a
frustração. Essa experiência é insubstituível porque ela nos dá base para
suportar tanto a imperfeição alheia quanto a nossa.
“E aqui também fica a pergunta, se o vínculo humano é esse espaço
onde a gente pode ser frustrado e as mesmo assim ser amados, o que que vai
acontecer com uma geração que aprende a se regular só com vínculos que nunca
devolve frustração. Então, eu acredito que esse é um questionamento que a gente
precisa começar a se fazer para estarmos preparados para lidarmos com isso”,
afirma.
Brenda reflete que a inteligência artificial pode ser utilizada como um apoio complementar, como registro de humor diário, mas nunca como um substituto de terapia ou de relações de cuidado.
“Para quem usa de forma recorrente a inteligência artificial para este fim, vale uma reflexão. Se é um hábito, algo precisa de atenção”, completa.
Hospital
Heidelberg

Nenhum comentário:
Postar um comentário