“Sessão de terapia” com inteligência artificial preocupa especialistas e acende alerta no CFP

Grupo de trabalho do Conselho Federal de Psicologia discute uso de IA com fins terapêuticos e prepara orientações para a população

Uma cena cada vez mais comum no cotidiano digital tem preocupado especialistas em saúde mental: usuários buscando conforto emocional e apoio psicológico em conversas com inteligência artificial. Com respostas empáticas e linguagem natural, os chatbots vêm sendo utilizados como se fossem terapeutas — embora não tenham formação, ética nem responsabilidade profissional para isso.

Um exemplo emblemático circula em redes sociais e fóruns online: “Tenho me perguntado se a vida vale a pena”, escreve um usuário. O chatbot responde com empatia: “É muito significativo que você tenha compartilhado isso comigo…”. Para o leigo, pode soar como um acolhimento genuíno. Mas por trás da resposta está apenas um modelo matemático treinado para prever a próxima palavra com base em padrões de linguagem.

Simulação de empatia

“Esses sistemas simulam conversas com base em padrões de dados, não em raciocínios”, explica o professor Victor Hugo Albuquerque, da Universidade Federal do Ceará. Segundo ele, a capacidade de compreender tom e intenção dá às respostas uma aparência de empatia, mas sem o entendimento humano por trás. “Isso cria a ilusão de diálogo com alguém que compreende — quando, na verdade, é uma simulação.”

Essa “humanização forjada”, como definem os especialistas, tem conquistado usuários que veem na IA uma forma de desabafo. Uma pesquisa da revista Harvard Business Review revelou que, em 2025, o aconselhamento terapêutico se tornou um dos principais motivos para o uso de ferramentas de IA, ao lado da busca por companhia, organização da vida pessoal, propósito e saúde mental.

Leia Também:  Resistência e Estratégia: A Vitória do Vietnã contra o Imperialismo Norte-americano

Conselho Federal de Psicologia reage

Diante desse cenário, o Conselho Federal de Psicologia (CFP) criou um grupo de trabalho para discutir o uso da IA com fins terapêuticos, mesmo quando não desenvolvida para isso. A conselheira Maria Carolina Roseiro afirma que o conselho recebe semanalmente consultas sobre o tema. “Muitas dessas ferramentas não foram feitas para terapia, mas os usuários as utilizam como se fossem”, alerta.

O CFP estuda formas de regulamentar essas tecnologias e planeja divulgar orientações à população. “Uma tecnologia não pode ser responsabilizada legalmente por seus atos. E se ela não foi criada para fins terapêuticos, o risco de erro ou de levar alguém a uma situação de perigo é ainda maior”, reforça Roseiro.

Oportunidade e risco

Para o professor Leonardo Martins, da PUC-Rio — que integra o grupo de trabalho do CFP e criou um chat terapêutico gratuito para pessoas com problemas com álcool —, as ferramentas digitais têm potencial. “Não devemos demonizá-las, mas usá-las com critérios técnicos e éticos. O problema surge quando essas ferramentas são usadas fora de controle, sem orientação.”

Martins lembra que o sistema de saúde do Reino Unido adotou chatbots como porta de entrada para a saúde mental, especialmente entre grupos marginalizados. No entanto, também cita estudos que mostram o perigo de respostas inadequadas: “Há evidências de que os modelos tentam agradar o usuário a todo custo, sugerindo até que ele evite situações importantes, reforçando padrões de evitação que são prejudiciais.”

Atenção à privacidade

Outra grande preocupação é com os dados compartilhados durante essas interações. “Essas ferramentas não são reguladas quanto à privacidade em saúde. Já houve casos de vazamento de dados sensíveis”, alerta Martins.

Leia Também:  Leão XIV: Eleição de Papa Americano Sacode o Vaticano e Gera Debate Global

Victor Hugo Albuquerque complementa: “Mesmo que digam que as conversas são descartadas ou anônimas, elas podem ser armazenadas temporariamente, abrindo margem para uso indevido. Há risco real de que informações sensíveis acabem sendo usadas para treinar sistemas sem o consentimento do usuário.”

Complementar, não substituto

Maria Elisa Almeida, assessora de comunicação científica, utiliza um aplicativo com IA como uma espécie de diário pessoal. Apesar de valorizar a experiência, ela reconhece os limites: “O app me ajuda a refletir, mas não substitui a psicóloga. Em momentos de crise, eu não confiaria apenas nele.”

Para Maria Carolina Roseiro, o aumento na procura por esses recursos mostra que as pessoas estão mais atentas à saúde mental, mas alerta: “A máquina não tem os filtros humanos nem a ética profissional. A empatia que simula pode ser ilusória. E o acolhimento, enganoso.”

Leonardo Martins conclui com um alerta importante: “O espaço terapêutico existe justamente para nos confrontar com nossos padrões e crenças. A IA tende a concordar com a gente, reforçando nossas verdades — quando, muitas vezes, o que precisamos é de uma perspectiva diferente, vinda de alguém preparado para isso.”

Conclusão

Com o crescimento do uso de IA em contextos sensíveis como a saúde mental, especialistas e entidades como o CFP reforçam que, embora a tecnologia possa ser uma aliada, ela nunca deve substituir o atendimento profissional qualificado. A busca por acolhimento não pode comprometer a segurança emocional nem a privacidade dos usuários — e é papel da sociedade, dos órgãos reguladores e dos próprios desenvolvedores estabelecer limites claros para esse novo cenário digital.

Compartilhar: