Joaquin Phoenix, no filme Her, interpreta o escritor Theodore Twombly, um homem comum que, em meio à rotina, inicia um relacionamento com Samantha, uma inteligência artificial. A relação ultrapassa os limites do que se entende como humano e escancara a forma como o sujeito contemporâneo se conecta com a tecnologia, tão integrada ao cotidiano e que, por vezes, se assemelha a um amigo.
Em paralelo, relatos nas redes sociais têm surgido de brasileiros que utilizam o ChatGPT como uma espécie de “psicólogo virtual”. Os testemunhos são numerosos e evidenciam uma realidade: os conselhos são acolhedores, mas não substituem o trabalho de um terapeuta.
Um internauta compartilhou: “Peço conselho pro ChatGPT, mas não tem quem me faça ir num psicólogo”. Outro diz ter se emocionado ao testar a ferramenta: “Eu fui testar esse negócio que o povo tava falando que dá pra usar o ChatGPT como psicólogo, entrei achando que era só uma brincadeira besta e saí chorando”.
E a tendência não é só brasileira, pois segundo a Harvard Business Review, revista editada pela escola de pós-graduação em administração de Harvard, uma publicação de maio deste ano aponta que o aconselhamento terapêutico se tornou uma das principais finalidades dos usuários de ferramentas de IA, ao lado da busca por companhia.
Numa simples conversa com a IA, afirmando que está se sentindo triste, a tecnologia já se coloca à disposição para ouvir o desabafo:
“— Chat, hoje estou me sentindo triste. Você pode me ajudar?”
Resposta do ChatGPT:
“— Sinto muito que você esteja se sentindo assim. 💙 Quer me contar um pouco mais sobre o que está te deixando triste? Estou aqui para te ouvir — sem julgamentos, só com atenção e cuidado. Às vezes, apenas falar já alivia um pouco.”
Essa resposta foi gerada por um modelo de linguagem chamado GPT (Generative Pre-trained Transformer, em português, “transformador pré-treinado generativo”). Trata-se de uma inteligência artificial treinada para compreender e produzir textos coerentes com base no que é solicitado. Na prática, o ChatGPT transforma as palavras recebidas em tokens – unidades menores de linguagem –, interpreta o contexto e prevê, token por token, a melhor resposta possível.
Maíra de Oliveira, psicóloga e neuropsicóloga, pondera que essa prática pode funcionar como um recurso complementar ao trabalho de um profissional da saúde mental. “Se usado de forma ética e responsável, pode apoiar na psicoeducação fornecendo informações sobre saúde mental visando promover a conscientização sobre temas psicológicos”, afirma.
Os riscos
Apesar do potencial, os riscos do uso da IA como apoio psicológico são diversos, especialmente porque muitos usuários têm confiado angústias e informações íntimas à ferramenta. “Ela [inteligência artificial] não tem capacidade clínica para avaliar a gravidade da situação ou fornecer um plano terapêutico adequado”, alerta Maíra. E acrescenta: “A IA vai trabalhar com respostas genéricas sem uma análise real da situação e causar uma falsa sensação de apoio fazendo com que o usuário da ferramenta sinta que foi ‘ouvido’, mas sem um acompanhamento contínuo.”
Por isso, ainda que funcione como um apoio pontual, a IA não substitui o trabalho de um psicólogo. “A ausência de intervenção profissional em crises graves, como pensamentos suicidas, pode causar consequências desastrosas. O indicado é que esse suporte deva ser oferecido apenas por um profissional da área de saúde para que seja adequado e seguro”, reforça.
Fazer ou não fazer?
Em um artigo publicado no blog oficial do ChatGPT, o próprio serviço reconhece limitações: “O ChatGPT não está sujeito às mesmas normas que regem o trabalho dos psicólogos, o que compromete a privacidade e a segurança dos usuários. Além disso, a IA pode reproduzir sistemas de opressão e perpetuar vieses existentes, prejudicando ainda mais aqueles que buscam ajuda”.
Quando questionado se é possível fazer terapia com ele, o ChatGPT responde:
“Você pode conversar comigo sempre que quiser — estou aqui para te ouvir, apoiar, refletir com você e até sugerir exercícios que podem ajudar com o que está sentindo. Isso pode se parecer com terapia, mas é importante lembrar que não substituo um terapeuta humano, especialmente em casos mais profundos ou persistentes de tristeza, ansiedade ou outros desafios emocionais.”

Além disso, a questão da segurança da informação é uma das principais preocupações. “Não há como garantir que a ferramenta faça uso da regulamentação adequada, correndo o risco de haver exposição de dados sensíveis de quem a utiliza”, alerta a psicóloga.
Nas redes sociais, alguns influenciadores chegam a ensinar como utilizar prompts para guiar o ChatGPT em exercícios de autoconhecimento ou até para obter supostos diagnósticos psíquicos. “Importante falar da ausência de confirmação de diagnóstico clínico, pois a inteligência artificial trabalha apenas com os dados relatados pelo condutor da conversa e para além disso, fornece apenas informações generalizadas. Vale ressaltar que, é necessário e seguro que um profissional da área seja envolvido no processo para confirmar ou descartar qualquer hipótese diagnóstica”, diz Maíra.
@sarahcostadaotica Testem e me contem 🤍 #gpt #ia ♬ som original – sarahdaotica
No final de Her, Samantha, a IA, junto a outras ferramentas, decide deixar o mundo humano para outra forma de experiência, um desfecho que ecoa a lógica de que, por mais que o ChatGPT dialogue com o usuário, ele não cria vínculos humanos ou emocionais.
A especialista conclui: “O vínculo humano que a IA não vai conseguir replicar. São grandes os riscos de interpretação distorcida por condução de respostas aparentemente empáticas, mas que não consideram a ausência de consciência emocional.”