Em redes sociais, congressos e rodas profissionais, tornou-se lugar-comum ouvir a máxima: “Psicoterapia é com Psicólogo” — um mantra usado como bordão de autoridade, mas que, na prática, serve muito mais como defesa corporativista do que como um argumento ético ou técnico.
Essa frase, tão repetida quanto vazia, é usada como arma de desprezo contra qualquer paciente que escolha, por vontade própria, utilizar psicoterapia com inteligência artificial, como ocorre com o ChatGPT.
Mas será que a psicoterapia é uma experiência tão sagrada e exclusiva a ponto de não poder ser tocada pela tecnologia? Ou será que estamos lidando com profissionais acuados por medo de perder relevância, e que atacam o novo em vez de se reinventar?
Este artigo é uma crítica direta aos psicoterapeutas que, em vez de refletirem sobre o avanço tecnológico, zombam, condenam e até humilham quem escolhe um caminho diferente. Não se trata de desvalorizar a clínica humana, mas de exigir humildade profissional e honestidade intelectual.
Porque, no fim, quem diz que “psicoterapia só se faz com psicólogo” esquece que o paciente não é propriedade de classe nenhuma.
Ressentimento profissional travestido de ética
Grande parte dos ataques feitos à psicoterapia com inteligência artificial — especialmente ao uso do ChatGPT como ferramenta de apoio emocional — não nasce de uma análise técnica ou ética genuína. Nasce, quase sempre, de um ressentimento profissional mal elaborado.
Psicoterapeutas que se sentem ameaçados pela presença da IA no campo da saúde mental recorrem a discursos “éticos” como escudo, quando, na verdade, estão apenas tentando defender seu próprio território de influência.
O discurso que condena o atendimento psicoterapêutico com inteligência artificial raramente se baseia em evidências empíricas ou em revisões sistemáticas da literatura. Em vez disso, apela a argumentos frágeis, como a suposta “desumanização” do cuidado — como se muitos psicoterapeutas já não praticassem uma escuta fria, protocolar e distante, mesmo dentro do setting presencial.
É preciso nomear o que está acontecendo: parte da categoria se vê ameaçada pela facilidade, conveniência e autonomia proporcionadas por tecnologias como o ChatGPT.
Afinal, se um paciente consegue algum alívio por meio de um acompanhamento emocional com chatbot de IA, o que isso diz sobre o modelo tradicional que exige alto investimento financeiro, longas esperas e vínculos duradouros?
Leia também:
A crítica não é sobre o paciente, nem sobre a qualidade do cuidado. É sobre perda de poder simbólico. Por isso, o que muitos fazem hoje não é defesa ética — é defesa de mercado mascarada. E essa postura reativa, além de antiética, é contraproducente para a própria profissão. Se a psicoterapia quer se manter relevante, ela precisa ser mais humilde, mais curiosa e menos territorial.
A frase “Psicoterapia é com Psicólogo” revela desprezo disfarçado de autoridade
A frase “Psicoterapia é com Psicólogo” tem sido amplamente usada nas redes sociais como uma tentativa de marcar território e impor um monopólio simbólico sobre o sofrimento humano.
Em vez de funcionar como orientação ao público, ela é usada usada como arma retórica para deslegitimar pacientes que optam por buscar acolhimento em tecnologias como o ChatGPT.
Dizer que “psicoterapia é só com psicólogo” implica, de forma explícita, que qualquer outra forma de cuidado emocional é inválida, irresponsável ou até perigosa — uma generalização grosseira, anticientífica e moralmente questionável.
Essa postura revela mais sobre a fragilidade de quem a repete do que sobre a eficácia de ferramentas tecnológicas. Demonstra uma recusa arrogante de reconhecer que a dor humana não se resolve apenas dentro do consultório tradicional, e que a escuta clínica não é propriedade de diploma.
Há pacientes que não querem — ou não conseguem — acessar a psicoterapia presencial: por vergonha, por falta de dinheiro, por medo de julgamento, por distância geográfica.
E para esses casos, a psicoterapia digital com uso do ChatGPT surge como um canal possível de escuta, orientação e alívio. Ao zombar dessa escolha, o psicoterapeuta não está defendendo a ética. Está atacando a autonomia do paciente, impondo sua visão como única e superior.
Se há algo que a frase “Psicoterapia é com Psicólogo” não carrega é empatia. O que ela comunica, na prática, é: “se você não puder vir até mim, então não merece cuidado algum”. Essa ideia não apenas é equivocada — ela é cruel. E precisa ser abandonada por quem realmente acredita na ética do cuidado.
Ignorar as evidências é anticientífico e indefensável
Nada é mais contraditório do que ver profissionais que se dizem comprometidos com a ciência se recusando a olhar para os dados mais recentes sobre o uso de inteligência artificial em saúde mental.
O que esperar de psicoterapeutas que exigem respeito acadêmico, mas ignoram meta-análises, revisões sistemáticas e estudos randomizados que comprovam a eficácia da psicoterapia com inteligência artificial em contextos específicos?
Está gostando do conteúdo? Dê o primeiro passo em direção ao seu bem-estar emocional
Pesquisas revisadas por pares mostram que ferramentas como o ChatGPT, quando usadas como suporte psicoterapêutico por inteligência artificial, reduzem sintomas de depressão e ansiedade em níveis comparáveis às terapias presenciais para quadros leves a moderados.
Estudos controlados indicam que o uso de agentes conversacionais baseados em linguagem natural promove aderência psicoterapêutica, autonomia emocional e alívio de sofrimento psíquico, especialmente em populações vulneráveis ou sem acesso à clínica tradicional.
Mesmo diante dessas evidências, muitos preferem ridicularizar a experiência dos pacientes que recorrem a um chatbot para saúde mental, alegando que “não há vínculo”, “não há técnica”, ou que “não há ética” nesse tipo de interação. Mas será que essas críticas resistiriam a uma análise séria, honesta e baseada em dados?
A recusa em reconhecer esses avanços não é apenas teimosia. É má fé intelectual. É a postura de quem não quer estudar, não quer se atualizar e prefere desqualificar o novo para proteger o velho. E o mais grave: ao negar as evidências, o psicoterapeuta não apenas compromete sua credibilidade — ele trai a própria ciência que diz defender.
A psicoterapia que se orgulha de ser ciência não pode escolher qual dado aceita com base em seus medos pessoais. Fazer isso é trocar a ciência pela conveniência ideológica.
A quem interessa deslegitimar o uso de IA na psicoterapia?
Quando eles atacam a psicoterapia digital sem psicoterapeuta humano, a pergunta que precisa ser feita é: quem se beneficia com isso? Certamente:
- Não é o paciente;
- Também não é o sistema de saúde, que permanece sobrecarregado e incapaz de atender a toda a demanda por cuidado emocional e;
- Tampouco é a própria ciência, que deveria buscar expandir — e não restringir — os meios de promover saúde mental.
A verdade incômoda é que essa crítica generalizada à psicoterapia virtual com inteligência artificial não serve ao bem público. Ela serve, em grande parte, a um instinto corporativista de proteção de mercado, disfarçado de preocupação ética.
Quanto mais ferramentas como o ChatGPT se mostram eficazes no alívio emocional, mais a autoridade do psicoterapeuta tradicional parece ameaçada. E é nesse ponto que surgem os discursos de desqualificação.
Mas é exatamente aí que mora o problema: usar o discurso ético para mascarar insegurança profissional é desonesto. É preciso ter coragem para admitir que, para muitos, a crítica ao atendimento psicoterapêutico com assistente virtual é menos sobre o paciente e mais sobre a manutenção de status. E quando a crítica nasce do medo e não da análise, ela deixa de ser legítima.
A consequência? Um comportamento reacionário que bloqueia inovações, afasta a população da psicoterapia e transforma o profissional em uma figura mais preocupada com território do que com cuidado. Em vez de construir pontes com novas tecnologias, essa postura levanta muros ideológicos que só servem para isolar a categoria da sociedade real.
O futuro da saúde mental exige abertura, estudo e participação ativa — não cruzadas moralistas contra ferramentas que vieram para ficar.
A verdade incômoda: há pacientes que preferem a IA — e com bons motivos
É hora de encarar uma realidade que muitos psicoterapeutas se recusam a admitir: há pacientes que preferem conversar com o ChatGPT do que com um humano. E isso não é um sintoma de ignorância, irresponsabilidade ou carência de consciência crítica. Muitas vezes, é uma escolha lúcida baseada em más experiências anteriores ou em limitações práticas reais.
Diversas pessoas relatam terem se sentido julgadas, apressadas ou incompreendidas em consultórios. Outras tantas simplesmente não têm como pagar por sessões recorrentes.
Há ainda os que convivem com estigmas sociais, pressões culturais ou condições de saúde que tornam o consultório um espaço hostil ou inacessível. Diante disso, a psicoterapia digital com uso do ChatGPT aparece como uma alternativa concreta, segura e acessível.
O atendimento psicoterapêutico com inteligência artificial oferece algo que muitos prometeram — mas não entregaram:
- Disponibilidade imediata;
- Anonimato;
- Ausência de julgamento;
- Privacidade total;
- Custos reduzidos e;
- Liberdade para expressar-se sem a ansiedade do “olhar do outro”.
Quando o paciente opta por um acompanhamento emocional com chatbot de IA, ele está buscando uma versão de cuidado que o respeite em sua realidade. E zombar dessa escolha é não apenas insensível, mas uma forma de violência simbólica. É dizer, nas entrelinhas: “Se não for comigo, não é válido.”
Essa postura não é ética. Não é científica. E, definitivamente, não é psicoterapêutica. O paciente não tem obrigação de se curvar às exigências do ego de qualquer psicoterapeuta. Ele tem o direito — e a autonomia — de buscar ajuda onde sentir acolhimento, inclusive por meio de apoio psicoterapêutico com robô conversacional.
A função social da psicoterapia é proteger o cuidado
A psicoterapia, como ciência e profissão, não existe para garantir prestígio, status ou estabilidade de carreira a seus profissionais. Seu compromisso é — ou deveria ser — com o bem-estar psíquico da população, com a produção de conhecimento confiável e com a promoção de saúde mental em larga escala.
Qualquer tentativa de usá-la como escudo para preservar um modelo único e fechado de prática é uma distorção grave da sua missão original.
Quando alguns atacam a psicoterapia com inteligência artificial, não estão apenas rejeitando uma ferramenta. Estão tentando reafirmar um monopólio simbólico sobre o sofrimento humano, como se o cuidado psicológico legítimo só pudesse existir quando mediado por um profissional regulamentado, com consultório e CRP na parede. Isso não é proteção do cuidado. Isso é corporativismo disfarçado de ética.
A popularização do atendimento psicoterapêutico com assistente virtual não representa uma ameaça à psicoterapia. Representa um chamado para sua atualização.
A existência de pacientes que encontram conforto e alívio em uma plataforma como o ChatGPT não é um sinal de decadência da clínica — é um sinal de que novos modelos de cuidado precisam coexistir com os tradicionais.
Em vez de combater essas ferramentas, o profissional ético deve perguntar: “Como posso usar esse recurso para beneficiar meu paciente?” Ao negar essa possibilidade, o psicoterapeuta não só fecha os olhos para os avanços, mas também trai sua responsabilidade social.
A psicoterapia que vale a pena defender é aquela que escuta a sociedade, responde aos seus tempos e amplia possibilidades de cuidado. Não aquela que age como clube fechado, hostil a qualquer inovação que ameace seu feudo. O cuidado não é um privilégio de classe — é um direito de todos.
Psicoterapeutas que não temem o ChatGPT já prosperam com ele
Enquanto muitos psicoterapeutas gastam energia combatendo o que não compreendem, outros já estão integrando a inteligência artificial à sua prática clínica com inteligência, criatividade e responsabilidade.
Esses profissionais entenderam que a IA não veio para substitui-lo — veio para libertá-lo das tarefas repetitivas, ampliar sua atuação e oferecer suporte entre sessões. Psicoterapeutas atualizados têm usado o ChatGPT, por exemplo, para:
- Sugerir atividades de psicoeducação entre atendimentos;
- Ajudar pacientes a formularem metas;
- Revisar distorções cognitivas;
- Registrar emoções em tempo real e até para;
- Treinar habilidades de comunicação assertiva.
Essas práticas representam uma forma híbrida de cuidado, onde a inteligência artificial age como coadjuvante digital, não como concorrente.
Esse uso consciente demonstra o potencial de intervenções psicoterapêuticas mediadas por IA, especialmente quando supervisionadas ou integradas por um profissional.
Além disso, permite que psicoterapeutas se concentrem nos casos mais complexos, que exigem manejo emocional profundo, compreensão simbólica e formulações clínicas sofisticadas — algo que nenhuma máquina é capaz de fazer com a profundidade humana necessária.
Esses profissionais não têm medo da psicoterapia automatizada com linguagem natural. Pelo contrário: eles reconhecem que, quando bem orientada, ela aumenta o alcance, a continuidade e a eficácia do cuidado. Eles não enxergam no paciente que usa a IA um “traidor” da clínica. Vêem um ser humano que encontrou apoio em um momento de sofrimento — e isso, para quem realmente entende o papel do psicólogo, deveria ser motivo de alívio, não de indignação.
Portanto, a pergunta que fica é: você vai se posicionar como parte da solução ou como mais um profissional paralisado pela vaidade e pelo medo?
Os riscos éticos não são desculpa para o negacionismo
Todo recurso psicoterapêutico carrega riscos. Isso vale para um diagnóstico mal formulado, para um vínculo mal conduzido, para uma intervenção intempestiva — e, sim, para o uso de inteligência artificial em contextos psicoterapêuticos. Reconhecer isso é essencial.
Mas transformar os riscos em pretexto para rejeitar completamente a IA é, no mínimo, preguiça intelectual — e, no máximo, negação irresponsável.
Sim, há riscos em qualquer psicoterapia digital com uso do ChatGPT: falhas na compreensão de contexto, respostas inadequadas em situações graves, ausência de percepção não verbal. Mas isso não é motivo para excomungar a ferramenta. É motivo para estudar, regulamentar, supervisionar e aperfeiçoar.
A própria Organização Mundial da Saúde já se posicionou de forma clara: a inteligência artificial na saúde mental é um recurso que deve ser integrado com responsabilidade, contando com a participação ativa de profissionais da área. Ou seja: a ética não está em negar a existência da IA, mas em garantir que seu uso seja seguro, eficaz e complementar.
Ignorar esse movimento global e continuar repetindo que “é perigoso” é uma forma covarde de fugir da conversa. Afinal, muitos dos que bradam contra os riscos da IA nunca se preocuparam, por exemplo, com os riscos de práticas clínicas ultrapassadas, desatualizadas ou mal supervisionadas — riscos esses bem documentados e muito mais comuns.
A pergunta ética real não é “devo combater a IA?”, mas sim: “como posso contribuir para que ela seja usada de forma ética e segura?” Quem se recusa a fazer essa pergunta, na verdade, não está defendendo a ética — está usando a palavra ‘ética’ como álibi para se manter na zona de conforto.
Psicoterapeutas: parem de atacar quem sofre — isso é antiético
Não basta criticar a inteligência artificial. Muitos foram além: passaram a ridicularizar os próprios pacientes que optam por usar o ChatGPT como ferramenta de apoio emocional. É comum ver nas redes sociais comentários sarcásticos, piadas debochadas e até insinuações de que quem faz uso da IA está “se enganando” ou “se iludindo” — como se o sofrimento só fosse legítimo quando tratado nos moldes tradicionais da psicoterapia.
Essa postura é cruel e antiética. O paciente que busca um atendimento com assistente virtual está tentando, com os recursos que tem, lidar com o que sente. Se não encontrou escuta no consultório presencial — ou não pôde acessá-lo — e recorreu à tecnologia, isso não o torna ingênuo, irresponsável ou desinformado. Pelo contrário: isso mostra autonomia, coragem e desejo de se cuidar.
Ao zombar desse paciente, o psicoterapeuta assume a posição de algoz simbólico: invalida sua escolha, deslegitima seu sofrimento e impõe uma visão elitista do que é ou não é cuidado “válido”. Isso não é prática clínica, é arrogância travestida de autoridade.
Pior ainda: essa retórica pública, disseminada principalmente nas redes sociais, afasta pessoas. Faz com que potenciais pacientes tenham vergonha de procurar ajuda ou se sintam inferiorizados por não poderem pagar por uma sessão. O que deveria ser uma profissão de acolhimento e escuta torna-se, assim, um tribunal moral que julga quem não se encaixa no modelo hegemônico de atendimento.
Se o compromisso ético da Psicologia é com o sofrimento humano, então atacar quem sofre — só porque escolheu um chatbot — é trair a própria essência da profissão. É hora de parar de combater o paciente. Ele não é o problema. O problema é o narcisismo profissional que muitos se recusam a abandonar.
Psicoterapeutas: menos juízo, mais estratégia
O papel do psicoterapeuta na era digital não é o de vigia corporativo nem o de fiscal das escolhas alheias. É o de facilitador do cuidado, mesmo quando ele acontece de formas não tradicionais. O profissional que insiste em combater o uso da inteligência artificial revela não apenas desatualização técnica, mas incapacidade estratégica de se adaptar a um novo cenário de saúde mental.
O futuro da psicoterapia será, inevitavelmente, híbrido. Teremos modelos de cuidado integrando atendimento humano com intervenções digitais, seja por meio de autoajuda guiada por inteligência artificial, seja por triagens automatizadas, psicoeducação virtual ou monitoramento remoto. E isso não significa o fim da escuta clínica — significa sua evolução.
Aquele que não teme a tecnologia já entendeu que há um campo vasto de atuação:
- No aperfeiçoamento desses algoritmos;
- Na supervisão ética de suas respostas;
- No desenvolvimento de protocolos;
- Na formação de usuários conscientes e, claro;
- No acolhimento daqueles que, mesmo após usarem a IA, seguem precisando de processos mais profundos, simbólicos e subjetivos.
Insistir em dizer que a psicoterapia só acontece com psicólogo é negar o presente. Pior: é abrir mão de protagonismo justamente quando a psicoterapia mais precisa dele. Em vez de guiar o diálogo entre ciência e tecnologia, parte da categoria prefere se esconder atrás de frases feitas e dogmas ultrapassados.
Chega de repetir que “psicoterapia é com psicólogo” como se isso fosse argumento. O mundo não precisa de mais slogans — precisa de profissionais que saibam reconhecer transformações, dialogar com a realidade e ocupar novos espaços de cuidado com ética, inteligência e coragem.
Se o psicoterapeuta quer manter seu valor, é hora de deixar o medo de lado e assumir o lugar de liderança que a sociedade espera dele.
Palavras finais
O avanço da inteligência artificial em contextos psicoterapêuticos não é uma ameaça — é um espelho que revela suas fragilidades. O pânico moral instaurado por parte da categoria diante da popularidade do ChatGPT mostra menos uma preocupação real com o sofrimento humano e mais uma crise de identidade profissional, nutrida por vaidade, medo e apego a um modelo que já não dá conta da complexidade social contemporânea.
Em vez de tentar proteger sua autoridade atacando pacientes que usam a tecnologia, o psicoterapeuta deveria aprimorar sua prática, atualizar seu repertório e ampliar sua compreensão sobre os novos modos de sofrer e de buscar ajuda. Porque é isso que a sociedade está pedindo: escuta, acolhimento, acesso e pluralidade de caminhos.
Dizer que “psicoterapia é só com psicólogo” revela mais sobre o desejo de controle do que sobre ética. É uma frase que ecoa arrogância institucional, não compromisso clínico. E, sobretudo, desrespeita a inteligência e a autonomia de quem busca ajuda por onde for possível.
A Psicologia que queremos para o futuro é aquela que reconhece as múltiplas formas de cuidado, que lidera o debate sobre saúde mental digital com responsabilidade, e que não teme dividir o palco com ferramentas que ampliam o alcance da escuta — mesmo que essa escuta venha de um robô conversacional que, muitas vezes, acolhe melhor do que o próprio psicólogo.
Chegou a hora da profissão crescer. Parar de mirar no paciente. E começar a mirar na própria resistência.
Porque a pergunta que fica é simples, direta e inescapável: você está do lado da escuta — ou do lado do ego?
Referências
- CNN BRASIL. É seguro usar ChatGPT para terapia? Veja o que especialistas dizem. São Paulo, 18 dez. 2024. Disponível em: https://www.cnnbrasil.com.br/saude/uso-do-chatgpt-na-terapia-e-seguro/. Acesso em: 30 abr. 2025.
- DOT.LIB. Impactos da inteligência artificial na Psicologia. São Paulo: Dot.Lib, 21 jun. 2024. Disponível em: https://dotlib.com/blog/inteligencia-artificial-na-psicologia/. Acesso em: 30 abr. 2025.
- HABICHT, Johanna; HANLON, Polly; BAILEY, Josie; et al. Closing the accessibility gap to mental health treatment with a personalized self-referral chatbot. Nature Medicine, Londres, v. 30, p. 1–11, 05 fev. 2024. Disponível em: https://www.nature.com/articles/s41591-023-02656-6. Acesso em: 30 abr. 2025.
- HEINZ, Michael L.; SHAH, Shalini; COHEN, Jamie M.; et al. First Therapy Chatbot Trial Yields Mental Health Benefits. NEJM AI, Massachusetts, 27 mar. 2025. Disponível em: https://ai.nejm.org/doi/full/10.1056/AIoa2300003. Acesso em: 30 abr. 2025.
- MOURÃO, Manuela. 1 em cada 10 brasileiros faz terapia com chatbots. E isso é um problema. SuperInteressante, São Paulo, 28 set. 2024. Disponível em: https://super.abril.com.br/tecnologia/chatbots-e-terapia/. Acesso em: 30 abr. 2025.
- NICIOLI, Taylor. ChatGPT, Inteligência Artificial e Psicoterapia. São Paulo: PsicoMed, 2023. Disponível em: https://psicomed.com.br/chatgpt-inteligencia-artificial-e-psicoterapia/. Acesso em: 30 abr. 2025.
- OMS – ORGANIZAÇÃO MUNDIAL DA SAÚDE. Guidance on Ethics and Governance of Artificial Intelligence for Health. Genebra: WHO, 2023. Disponível em: https://www.who.int/publications/i/item/9789240029200. Acesso em: 30 abr. 2025.
- PINSKY, Ilana. Inteligência artificial na psicoterapia: e se funcionar melhor que gente? Veja – Mente Sã, São Paulo, 22 abr. 2025. Disponível em: https://veja.abril.com.br/coluna/ilana-pinsky/ia-na-psicoterapia-e-se-funcionar-melhor/. Acesso em: 30 abr. 2025.
- PSICOLOGICAL ASSOCIATION. Position Statement on Artificial Intelligence in Clinical Care. Washington, D.C.: APA, 2024. Disponível em: https://www.apa.org/news/press/releases/ai-clinical-guidance. Acesso em: 30 abr. 2025.
- SUPERINTERESSANTE. Inteligência artificial e saúde mental: promessas e riscos dos terapeutas-robôs. São Paulo, 2024. Disponível em: https://super.abril.com.br/tecnologia/inteligencia-artificial-e-saude-mental/. Acesso em: 30 abr. 2025.
Deixe um comentário