Desabafar com a máquina: por que a inteligência artificial não substitui apoio psicológico

Com o avanço das plataformas de inteligência artificial e a crescente popularização de ferramentas como o ChatGPT, é cada vez mais comum que usuários utilizem esses recursos como forma de desabafo, busca por conselhos ou até mesmo como substitutos de acompanhamento psicológico.

 

Segundo uma pesquisa realizada em 2025 pelo Sentio University,  48,7% dos usuários de IA que reportam problemas de saúde mental estão usando ChatGPT para suporte terapêutico, compartilhando traumas, desafios e angústias. No Brasil, uma pesquisa realizada pela Talk Inc mostra que 1 em cada 10 brasileiros recorre a chats de inteligência artificial para desabafar, buscar conselhos ou simplesmente conversar.

 

No entanto, essa prática exige cautela. O alerta é do professor Lucas Glasner, docente do curso de Psicologia da UniFBV Wyden, psicólogo clínico e pesquisador na área de Psicologia e Humanidades Digitais. “O primeiro ponto é usar com moderação, principalmente quando se trata de desabafos e conselhos, é importante refletir sobre o quanto você está se vinculando emocionalmente a essa plataforma”, afirma Glasner. Para ele, é essencial lembrar que, por mais sofisticada que seja, a inteligência artificial ainda é apenas uma ferramenta e não deve ser confundida com uma figura de escuta terapêutica.

 

Glasner propõe algumas orientações para quem utiliza plataformas como o ChatGPT em contextos que envolvem saúde mental. “É fundamental entender que a IA não substitui relações humanas nem acompanhamento psicológico, existem pessoas disponíveis para acolher. A IA pode ser uma ponte, mas não deve substituir sua rede de apoio. Pode até facilitar processos, mas ela não é o processo em si, reflita sobre qual é a sua real intenção ao usar essas plataformas”, recomenda.

O psicólogo chama atenção para os riscos do uso indiscriminado da IA, sobretudo em contextos emocionais, considerando preocupante a ideia de ver um chatbot como terapeuta. “A maior preocupação é com a privacidade. Que tipo de dado estou entregando? E o que essa plataforma vai fazer com essas informações?”, questiona. Ele também ressalta os limites da confiança depositada nesses sistemas. “É preciso lembrar que a IA não tem função de acolher, mas de agradar. E são coisas completamente diferentes do ponto de vista psicológico”, afirma.

 

IA pode ser aliada, mas não substituta

 

Apesar dos riscos, o professor reconhece que a IA pode colaborar com o acompanhamento psicológico, desde que seja mediada por profissionais. “Ela pode facilitar o processo terapêutico, por exemplo, auxiliando entre uma sessão e outra, funcionando como ferramenta de apoio ao psicólogo e ao paciente”, pontua. “Não é mais possível negar a IA. A questão agora é como coexistir com ela. E, principalmente, como usá-la para facilitar processos humanos, e não para substituí-los”, destaca.

 

Para Glasner, o uso excessivo de IA no campo emocional revela uma crise de saúde mental, mas também uma crise de confiança. “As pessoas estão buscando soluções simplórias para questões complexas. Existe uma desconfiança generalizada em relação ao outro – inclusive aos profissionais de saúde mental. E isso é muito grave”, pondera.

 

Além da desconfiança, fatores como dificuldade de acesso à terapia também pesam. “No sistema público, as filas são longas. No setor privado, nem todos têm plano de saúde ou conseguem pagar por sessões regulares. Muitas vezes, quando têm, o plano oferece sessões curtas e espaçadas, o que não dá conta da demanda”, exemplifica.

 

Sinal de alerta: quando a IA vira dependência

 

Segundo o especialista, é importante estar atento ao momento em que o uso da IA se transforma em dependência. “O sinal de alerta é quando a pessoa já não consegue tomar decisões sozinha ou estabelece uma relação de confiança maior com o chatbot do que com outras pessoas”, pontua. “Quando a IA se torna a única fonte de apoio, há um risco muito grande de isolamento. E, nesse caso, reforçar o contato com outras pessoas – ainda que por mediações digitais – é essencial. Somos pessoas, e precisamos de pessoas”, finaliza.

*Via Assessoria