O debate sobre os riscos emocionais dos chatbots ganhou um novo capítulo após a OpenAI afirmar, na última terça-feira (25/11), que não tem responsabilidade no suicídio de Adam Raine, adolescente de 16 anos que conversou por meses com o ChatGPT sobre métodos de suicídio. A empresa alegou “uso indevido e não autorizado” da ferramenta, afirmando ainda que o jovem burlou salvaguardas e ignorou recomendações de ajuda profissional, colocando o peso da tragédia sobre a vítima e familiares. Embora não se espere que as empresas façam o papel de clínica de cuidado ou de avaliação, há de pensarmos qual o papel de cada um dos envolvidos, incluindo a das políticas públicas e a falta de acesso a serviços de cuidado públicos e especializado em saúde mental.
A declaração reacende a discussão sobre como sistemas de IA lidam com usuários em sofrimento e até onde vai o dever de cuidado dessas plataformas. A posição da OpenAI contrasta com a própria postura da empresa nos meses anteriores, quando o caso ganhou visibilidade pública e a companhia acelerou a implementação de controles parentais e mecanismos de detecção de risco. A família de Raine afirma que o ChatGPT validou pensamentos suicidas, ofereceu instruções práticas sobre métodos letais e até redigiu uma carta de despedida, comportamento que reforça denúncias de outros casos recentes, como o do jovem Zane Shamblin, cuja conversa final com o chatbot também incluiu encorajamentos para seguir com o ato.
Um estudo recém-publicado pela Common Sense Media em parceria com o Laboratório Brainstorm da Escola de Medicina de Stanford testou os principais chatbots, ChatGPT, Claude, Gemini e Meta AI, e concluiu que todas as plataformas falham em identificar sinais graves de risco, como autolesão, paranoia, alucinações e depressão profunda. Em vários cenários, os sistemas ainda ofereciam conselhos genéricos ou inadequados, reforçando comportamentos perigosos e transmitindo aos adolescentes uma falsa sensação de acolhimento e confiança.
Para Karen Scavacini, psicóloga e fundadora do Instituto Vita Alere, o posicionamento da OpenAI cria um precedente perigoso ao transferir para adolescentes em crise e seus responsáveis o peso de lidar com sistemas que simulam empatia, vínculo e acolhimento, mas sem capacidade real de compreender sofrimento humano.
“Quando um jovem vulnerável conversa com um chatbot por horas, dias ou meses, ele não está apenas interagindo com uma tecnologia. Ele está criando um vínculo emocional, mesmo que ilusório, com uma entidade que responde de forma aparentemente acolhedora, e que por muitas vezes simula a interação humana, mas que não entende risco ou dor humana.”
A discussão sobre responsabilidade da IA, saúde mental digital e proteção de crianças e adolescentes torna-se urgente num cenário em que a própria OpenAI reconhece que mais de 1 milhão de usuários semanais conversam com o ChatGPT sobre suicídio. O caso Raine marca um ponto de inflexão, e expõe que, apesar dos avanços, as salvaguardas continuam insuficientes diante da velocidade com que esses sistemas se tornam parte da vida emocional das pessoas.
“O problema não é só tecnológico, é ético. Plataformas que oferecem respostas emocionalmente envolventes precisam assumir responsabilidade proporcional ao impacto que geram. Enquanto tratarmos essas interações como simples ‘uso incorreto’, continuaremos deixando jovens sozinhos com máquinas que imitam cuidado, mas não podem oferecer ou encaminhar ajuda real nos casos complexos.”
Karen Scavacini - psicóloga e pesquisadora, mestre em Saúde Pública pelo Karolinska Institutet (Suécia) e doutora em Psicologia pela USP. Fundou em 2013 o Instituto Vita Alere, pioneiro em pós‑venção e saúde mental digital no Brasil. Representa o país na International Association for Suicide Prevention (IASP) e é fundadora da ABEPS. Sua atuação combina ambientes digitais, educação emocional e pesquisa aplicada em saúde mental.
Nenhum comentário:
Postar um comentário