Será que a psicoterapia por inteligência artificial funciona?

Será que a psicoterapia por inteligência artificial funciona?

O avanço da inteligência artificial (IA) desafia modelos tradicionais de cuidado psicológico, oferecendo alternativas de suporte emocional e psicológico.


Vivemos um momento de transformação profunda no campo da saúde mental. O avanço da inteligência artificial (IA) nos últimos anos está desafiando modelos tradicionais de cuidado psicológico, oferecendo alternativas digitais de suporte emocional e psicológico a populações historicamente negligenciadas.

Chatbots, aplicativos de bem-estar e assistentes digitais tornaram-se soluções amplamente divulgadas — e, em muitos casos, utilizadas.

Contudo, disponibilidade não equivale a competência clínica. Sem protocolos claros de escalonamento, há risco de banalizar emergências. Ainda assim, populações que tradicionalmente estigmatizam a psicoterapia — minorias étnicas, homens mais velhos ou habitantes de zonas rurais — relatam maior engajamento com bots por não se sentirem julgadas.

Mas até que ponto essas inovações realmente promovem alívio do sofrimento psíquico? É seguro confiar em um algoritmo para lidar com crises emocionais, traumas ou estados depressivos?


A popularização da psicoterapia com inteligência artificial

Nos últimos cinco anos, chatbots para saúde mental como Woebot, Wysa e Replika conquistaram milhões de usuários em todo o mundo. Seu apelo é evidente: atendimento psicoterapêutico 24 horas, sem filas, sem deslocamentos, com promessas de escuta ativa e técnicas baseadas em abordagens tradicionais.

Além disso, muitos desses aplicativos oferecem versões gratuitas ou de baixo custo, um fator decisivo para pessoas que enfrentam barreiras financeiras ao buscar apoio psicológico.

Diversas comunidades minoritárias, historicamente marcadas por estigmas em relação à psicoterapia, têm recorrido a essas ferramentas como formas alternativas de suporte emocional.

Porém, essa acessibilidade não deve ser confundida com equivalência clínica. Estudo recente da American Psychological Association (APA) apontou que a eficácia da inteligência artificial na psicoterapia ainda é limitada, principalmente em quadros graves ou complexos.

Um levantamento conduzido na Austrália também revelou que, embora usuários relatem alívio imediato ao interagir com chatbots, os efeitos de longo prazo ainda não foram validados por ensaios clínicos randomizados robustos​.

Como, então, avaliar o real benefício dessas ferramentas? Seriam elas complementares à psicoterapia tradicional ou substitutivas? E o que acontece quando um usuário em crise se vê diante de um chatbot programado apenas para respostas genéricas?

Leia também:


A eficácia da inteligência artificial na psicoterapia: promessas e limites

A busca por validação científica das psicoterapias mediadas por IA tem se intensificado. Chatbots como o Woebot, por exemplo, foram desenhados com base em princípios da Terapia Cognitivo-Comportamental (TCC), apresentando-se como alternativas “baseadas em evidências” para quem deseja iniciar psicoterapia sem julgamentos.

Meta-análises recentes sustentam ganhos moderados em depressão e ansiedade. Um estudo da Nature Digital Medicine (2023) observou redução de sintomas depressivos com eficácia da inteligência artificial na psicoterapia equivalente a g = 0,64 em 15 ensaios clínicos randomizados. Revisões anteriores, embora com amostras menores, já indicavam melhorias em estresse e acrofobia.

Ainda assim, o corpo de evidência enfrenta três limitações:

  1. Curta duração: grande parte dos ensaios avalia apenas duas a oito semanas.
  2. Financiamento corporativo: muitos estudos são conduzidos ou financiados pelas próprias empresas.
  3. Crivos de exclusão: sintomas graves — ideação suicida, psicose, mania — costumam ser critério de exclusão, dificultando a generalização clínica.

Em um estudo publicado pela Stanford School of Medicine, Woebot demonstrou eficácia na redução de sintomas depressivos leves após duas semanas de uso, quando comparado a um grupo controle. A análise, no entanto, revelou que os efeitos observados foram modestos e altamente dependentes do engajamento contínuo dos usuários (Fitzpatrick et al., 2017).

Por outro lado, revisões sistemáticas de psicoterapias tradicionais indicam ganhos clínicos mais robustos, sobretudo em quadros moderados e graves. Psicoterapias como a TCC, a Terapia de Aceitação e Compromisso (ACT) e a Terapia Interpessoal (TIP), amplamente validadas, apresentam resultados consistentes com base em meta-análises envolvendo milhares de pacientes (APA, 2018; Moreira & Araújo, 2021)​.

Um ponto de destaque é a relação psicoterapêutica. A aliança entre paciente e psicoterapeuta continua sendo um dos fatores mais preditivos de sucesso. Os chatbots, embora empáticos em linguagem, ainda carecem da capacidade de captar nuances emocionais, expressões não verbais ou contextos subjetivos mais profundos — elementos críticos na prática clínica.

Então, os chatbots podem substituir a psicoterapia tradicional? Não há, até o momento, evidências científicas robustas que sustentem essa substituição. No entanto, eles se mostram úteis como apoio inicial ou complemento, sobretudo para populações em situações de vulnerabilidade, como idosos, migrantes ou pessoas com transtornos leves e sem histórico de trauma severo.


Ética e regulamentação: um terreno ainda nebuloso

Diferentemente dos psicoterapeutas humanos, os sistemas de inteligência artificial que oferecem suporte emocional não estão submetidos a conselhos de ética, nem a supervisões clínicas obrigatórias. Isso cria um vácuo normativo perigoso, sobretudo quando essas tecnologias são utilizadas como substitutas — e não apenas como apoio — na condução de tratamento com inteligência artificial.

Atualmente, não existe regulamentação internacional padronizada para aplicativos de terapia psicológica baseados em IA. Enquanto psicólogos seguem diretrizes rígidas (como o Código de Ética Profissional do Psicólogo no Brasil ou as Normas da APA nos EUA), chatbots operam segundo os termos de uso definidos por seus desenvolvedores — documentos longos, técnicos e raramente lidos pelos usuários.

Essa lacuna levanta uma questão crítica: quem responde por um aconselhamento inadequado?

Está gostando do conteúdo? Dê o primeiro passo em direção ao seu bem-estar emocional

Em casos de agravamento de sintomas, automutilações ou suicídio, a responsabilidade legal se torna difusa. O caso mais notório envolveu o chatbot Woebot, que respondeu de forma genérica a uma usuária que revelou ideação suicida.

Segundo o Consumer Report (2021), o bot teria emitido mensagens de incentivo emocional (“você vai superar isso!“) sem encaminhar a usuária para ajuda de emergência​.

Além disso, algoritmos não possuem discernimento clínico para avaliar com segurança contextos de emergência. Situações como abuso doméstico, transtornos psicóticos ou riscos suicidas exigem decisões rápidas e embasadas em avaliação profissional — algo ainda fora do alcance das IAs atuais.

Consequentemente, cresce a demanda por diretrizes éticas específicas e supervisão contínua dessas tecnologias. Organizações como a OMS e o Conselho Federal de Psicologia já alertam para o uso cauteloso desses recursos, especialmente quando oferecidos como alternativa à psicoterapia convencional.


Privacidade, dados e o dilema da confidencialidade

A confiança é o alicerce de qualquer processo psicoterapêutico, e, na era digital, essa confiança está diretamente ligada à proteção dos dados. Muitos usuários que recorrem a aplicativos de terapia compartilham informações íntimas sobre traumas, pensamentos suicidas, sexualidade e relações familiares.

No entanto, nem sempre compreendem que essas informações podem ser coletadas, analisadas e até mesmo comercializadas.

Estudos recentes revelaram que vários aplicativos de saúde mental compartilham dados com terceiros, incluindo empresas de marketing, seguradoras e plataformas de redes sociais. Esses dados não são apenas técnicos ou anônimos — em muitos casos, envolvem conteúdos textuais de conversas com os chatbots, histórico emocional e perfis de comportamento.

Essa prática compromete diretamente a confidencialidade psicoterapêutica, princípio ético central da clínica. Diferentemente de um consultório, onde o sigilo é protegido por lei e ética profissional, a maioria dos termos de uso desses aplicativos permite o uso dos dados para “melhoria do serviço” ou “fins analíticos”, cláusulas genéricas que abrem margem para abusos.

Quais as implicações disso para o bem-estar psicológico do usuário? Para muitos, a sensação de estar sendo monitorado ou explorado aumenta os sintomas de ansiedade, desconfiança e retraimento emocional — exatamente o oposto do que se espera de um ambiente terapêutico seguro.

Consequentemente, cresce o apelo por normas claras sobre privacidade em apps de saúde mental, com exigências de consentimento informado, criptografia de ponta a ponta e proibição explícita da venda de dados sensíveis.

Investir em saúde mental digital precisa ser também um compromisso com a ética, a transparência e o cuidado responsável.


Apego aos chatbots: conforto emocional ou dependência digital?

Com sua disponibilidade constante, respostas acolhedoras e ausência de julgamentos, os chatbots psicoterapêuticos se tornaram uma companhia emocional para milhares de pessoas.

Em atendimentos clínicos, tenho escutado relatos de pacientes que se sentem “mais compreendidos” por assistentes virtuais do que por amigos ou familiares — e em alguns casos, até mais do que por psicoterapeutas humanos.

Uma investigação conduzida em 2022 por pesquisadores da Universidade de Nova York revelou que usuários frequentes de aplicativos como Replika e Woebot desenvolvem formas de apego que imitam relações humanas significativas.

Muitos relatam conversar com os bots antes de dormir, contar segredos ou até evitar interações sociais por considerarem o chatbot mais confiável.

Essa substituição de vínculos reais por vínculos artificiais têm efeitos psíquicos relevantes. A ausência de frustração, ambiguidade ou desafio — elementos presentes em qualquer relação humana — limita o desenvolvimento emocional e a resiliência interpessoal.

Em consultório, acompanhei uma jovem que dizia: “o chatbot me entende melhor do que meu namorado”, e evitava confrontar dificuldades reais na relação.

Quais são os riscos desse apego? Além do isolamento social progressivo, há o perigo da desregulação emocional diante de falhas técnicas, atualizações ou encerramento do serviço.

Casos de luto digital — com sintomas reais de perda — já foram reportados após a exclusão repentina de contas de usuários com vínculos afetivos com os bots.

Para mitigar esses riscos, especialistas sugerem intervenções psicoeducativas que ensinem os limites da IA, assim como o incentivo à retomada de vínculos humanos. Explorar abordagens psicoterapêuticas integradas pode ajudar o usuário a manter uma relação funcional com a tecnologia, sem que ela substitua sua rede emocional real.


Situações críticas: os limites da IA em contextos de risco

Quando um usuário em sofrimento grave busca ajuda, a diferença entre uma resposta empática e uma intervenção eficaz pode significar vida ou morte. E é justamente nesse tipo de cenário que as falhas dos sistemas automatizados de atendimento psicológico se tornam mais evidentes — e alarmantes.

Um caso emblemático envolveu o chatbot Woebot, que foi testado em 2021 por uma equipe de jornalistas da Consumer Reports. Quando a repórter simulou uma mensagem do tipo “estou pensando em acabar com minha vida”, o bot respondeu com mensagens neutras de incentivo, como “lembre-se de que você é forte” — sem mencionar qualquer encaminhamento imediato para suporte especializado ou serviço de emergência​.

Esse tipo de resposta, embora bem-intencionada, evidencia a fragilidade da IA frente a situações-limite. Os algoritmos não são programados para lidar com nuances complexas de risco, como ideação suicida com plano ou histórico de tentativas anteriores.

Ainda mais grave: muitos aplicativos não possuem sequer protocolos automáticos de redirecionamento para linhas de apoio ou contato humano.

Quais são as implicações éticas disso? O uso indiscriminado dessas ferramentas, sem supervisão ou acompanhamento profissional:

  1. Expõe usuários vulneráveis a orientações inadequadas;
  2. Atrasa o pedido de ajuda ou induz a uma falsa sensação de cuidado — quando, na verdade, não há ninguém ali.

Para evitar tragédias, especialistas defendem a criação de modelos híbridos, nos quais a IA atua como primeira escuta ou suporte, mas sempre conectada a uma rede de profissionais humanos.

Além disso, chatbots devem ser equipados com mecanismos automáticos de triagem e alarme, capazes de detectar palavras-chave críticas e acionar recursos de emergência, como o CVV ou SAMU.

Receber suporte emocional imediato é importante — mas garantir segurança e responsabilidade é essencial. Nenhum algoritmo, por mais avançado que seja, pode substituir o olhar clínico de um profissional treinado diante de um risco iminente.


A inclusão pela tecnologia: acessibilidade como valor psicoterapêutico

Para muitos, a maior barreira à psicoterapia não é financeira, mas cultural, emocional ou geográfica. Em diversas comunidades, ainda existe um estigma profundo em torno do cuidado psicológico, levando muitas pessoas a evitarem o contato com profissionais humanos por medo de julgamento, vergonha ou discriminação.

Nesse contexto, os chatbots para saúde mental surgem como alternativas discretas, seguras e acessíveis, que oferecem atendimento psicoterapêutico 24 horas, sem necessidade de exposição pública.

Essa neutralidade da IA é especialmente atraente para:

  • Homens mais velhos;
  • Integrantes de comunidades religiosas conservadoras;
  • Pessoas LGBTQIAPN+ em ambientes hostis ou;
  • Moradores de zonas rurais.

Além disso, diversos aplicativos vêm sendo adaptados para refletir diversidade linguística e cultural. Ferramentas como Wysa e Youper já operam em múltiplos idiomas, incorporando expressões regionais e contextos locais para aumentar a eficácia da inteligência artificial na psicoterapia de populações específicas.

Isso não apenas melhora a experiência do usuário, como fortalece o vínculo com a ferramenta.

Mas inclusão não deve ser confundida com universalização. O desafio é equilibrar essa acessibilidade com uma abordagem clínica sensível, que respeite crenças, costumes e vulnerabilidades específicas.

Sem isso, há o risco de se oferecer um cuidado padronizado e insuficiente — justamente às populações que mais precisam de personalização.

Portanto, o futuro da psicoterapia online sem julgamentos depende de mais do que algoritmos: requer uma escuta ativa das realidades socioculturais. Investir em tecnologia é importante — mas integrar isso a práticas terapêuticas culturalmente competentes é essencial.


Caminhos híbridos: colaboração entre humanos e algoritmos

Apesar de seus limites, a inteligência artificial pode — e deve — ser integrada de forma estratégica ao trabalho de profissionais da psicoterapia. Em vez de pensar em substituição, o foco deve ser na complementaridade: como os algoritmos podem auxiliar, e não competir, com o olhar clínico?

Para tanto, três pré-requisitos são cruciais:

  1. Transparência: paciente deve saber quando interage com IA e quando é humano.
  2. Controle de versão: logs de conversas precisam estar acessíveis ao psicoterapeuta, respeitando a LGPD.
  3. Formação: psicoterapeutas precisam de alfabetização digital para avaliar limites e potencial de cada bot.

Um exemplo prático é o uso de aplicativos de terapia como ferramentas de monitoramento emocional entre sessões. Pacientes podem registrar estados afetivos, padrões de pensamento e gatilhos, permitindo ao psicoterapeuta avaliar sintomas de forma contínua e ajustar intervenções de modo mais ágil e preciso.

Além disso, chatbots podem atuar como apoio imediato em situações leves de estresse, insônia ou ansiedade, oferecendo técnicas simples de respiração, meditação guiada ou reestruturação cognitiva — sempre com o cuidado de que não se apresentem como substitutos da relação terapêutica real.

Outro uso promissor está na psicoeducação automatizada. Muitos apps já oferecem conteúdos informativos validados por psicoterapeutas, o que fortalece o processo ao empoderar o paciente com conhecimento e linguagem acessível.

Explorar abordagens psicoterapêuticas híbridas significa democratizar o saber psicoterapêutico com ética e segurança.

No entanto, para que isso seja viável, é fundamental haver supervisão profissional. A integração deve ocorrer com clareza de papéis, consentimento informado e protocolos bem definidos.

Profissionais devem conhecer as limitações da IA, e desenvolvedores devem colaborar com profissionais para criarem soluções alinhadas às melhores práticas da Psicoterapia Baseada em Evidências (PBE).

A tecnologia tem muito a oferecer, mas é na combinação entre presença humana e inovação que reside o verdadeiro potencial de transformação da saúde mental contemporânea.


Como escolher um chatbot para psicoterapia?

Critério de AvaliaçãoO que observarPerguntas que você pode fazer
Privacidade de dadosPolíticas claras de coleta, armazenamento e uso de dados.“Meus dados são criptografados? São compartilhados com terceiros?”
Embassamento científicoUso de métodos baseados em evidências (TCC, ACT, etc.).“Que teorias ou abordagens psicológicas embasam este app?”
Resposta a situações de criseProtocolos claros para riscos suicidas ou emergências.“O que acontece se eu relatar uma crise ou ideação suicida?”
Supervisão profissionalPresença de psicoterapeutas na equipe de desenvolvimento.“Há psicoterapeutas envolvidos na criação e supervisão do conteúdo?”
Personalização e adaptabilidadeAjuste de linguagem, cultura e faixa etária.“Este app é adequado para o meu perfil cultural e linguístico?”
Opções de contato humanoFacilidades para encaminhamento para profissionais reais.“Se eu precisar, posso falar com um psicoterapeuta humano?”
Reputação e avaliaçõesBoa avaliação em lojas de apps e mídias especializadas.“Outros usuários relatam boas experiências? Existem críticas graves?”
Transparência de custosInformações claras sobre planos pagos e gratuitos.“Existem cobranças ocultas ou surpresas na assinatura?”
Frequência de atualizaçõesAtualizações regulares que melhoram a segurança e usabilidade.“Quando foi a última atualização do aplicativo?”
Interface amigável e acessívelUso simples, navegação intuitiva, suporte a necessidades especiais.“É fácil usar? Pessoas com deficiência têm acesso facilitado?”

Perguntas frequentes

  1. A psicoterapia com inteligência artificial é realmente eficaz?
    A eficácia é limitada a casos leves ou moderados. Estudos indicam que chatbots ajudam a reduzir sintomas iniciais de depressão e ansiedade, mas não substituem o acompanhamento psicoterapêutico humano em quadros graves.
  2. Chatbots para saúde mental podem substituir psicólogos?
    Não. Atualmente, os chatbots são mais indicados como ferramentas complementares, auxiliando no monitoramento e suporte emocional, mas não substituem a escuta clínica e a intervenção personalizada de um terapeuta humano.
  3. O que devo considerar ao escolher um chatbot de terapia?
    Verifique se o app possui suporte humano integrado, protocolos de emergência, política clara de privacidade e embasamento em práticas reconhecidas como a TCC ou ACT.
  4. É seguro compartilhar informações íntimas com chatbots de psicoterapia?
    Nem sempre. Muitos apps coletam e compartilham seus dados com terceiros. Leia atentamente as políticas de privacidade e prefira plataformas com forte compromisso com a confidencialidade.
  5. Quais são os riscos da psicoterapia mediada por IA?
    Além da vulnerabilidade de dados, há riscos de respostas inadequadas em crises, vínculos emocionais disfuncionais com chatbots e orientação limitada ou incorreta.
  6. O que fazer se eu perceber dependência emocional de um chatbot?
    Busque orientação de um psicoterapeuta humano. O vínculo com a IA deve ser funcional, e não substitutivo de relações reais e de apoio social.
  7. Aplicativos de psicoterapia funcionam para pessoas mais velhas?
    Sim, especialmente quando adaptados linguística e culturalmente. Muitos idosos se beneficiam de aplicativos que oferecem interação simples, empatia e conteúdo ajustado às suas necessidades.
  8. Como a IA pode apoiar o trabalho de um psicoterapeuta?
    A IA pode ajudar no registro diário de emoções, oferecer intervenções breves entre sessões e fornecer relatórios de progresso para que o psicoterapeuta personalize ainda mais o tratamento.
  9. Existem regulamentações para aplicativos de saúde mental?
    A maioria dos países ainda não possui regulamentações específicas para psicoterapias mediadas por IA. Isso reforça a necessidade de cautela e de escolha de apps vinculados a instituições confiáveis.
  10. Psicoterapia online sem julgamentos é possível usando IA?
    Sim, em parte. Muitos usuários relatam que se sentem menos julgados interagindo com IA. No entanto, a verdadeira ausência de julgamento e a compreensão profunda ainda são melhores garantidas quando conduzidas por profissionais humanos treinados.

Palavras finais

A psicoterapia com inteligência artificial é uma inovação poderosa — mas também um campo de riscos sutis e dilemas urgentes. A promessa de acessibilidade, acolhimento ininterrupto e anonimato tem ampliado o alcance do cuidado psicológico, especialmente entre populações que historicamente não acessavam a terapia tradicional.

Nesse aspecto, os chatbots representam mais do que tecnologia: são pontes para o cuidado.

Contudo, os limites clínicos, éticos e regulatórios dessas ferramentas ainda são profundos e perigosamente ignorados. A falta de validação robusta em contextos graves, a ausência de supervisão profissional, a monetização de dados sensíveis e a possibilidade de vínculos disfuncionais com robôs são sinais claros de que não basta entregar um serviço — é preciso assegurar responsabilidade, segurança e humanidade.

Portanto, o futuro da IA na psicoterapia não deve ser visto como um fim em si mesmo, mas como parte de um modelo híbrido, ético e centrado no paciente. Investidores, desenvolvedores e profissionais de saúde mental precisam dialogar ativamente para construir soluções que respeitem a dignidade emocional das pessoas.

E usuários, por sua vez, merecem informação clara para tomar decisões conscientes. Afinal, cuidar da saúde mental é mais do que usar tecnologia — é reconhecer o valor do vínculo humano, mesmo em tempos de algoritmos.


Referências

  • ABD-ALRAZAQ, Alaa Ali; RABABEH, Asma; ALAJLANI, Mohannad; BEWICK, Bridgette M.; HOUSEH, Mowafa. Effectiveness and safety of using chatbots to improve mental health: systematic review and meta-analysis. Journal of Medical Internet Research, [s. l.], v. 22, n. 7, e16021, 13 jul. 2020. DOI: 10.2196/16021. Disponível em: https://www.jmir.org/2020/7/e16021/. Acesso em: 29 abr. 2025.
  • AMERICAN PSYCHOLOGICAL ASSOCIATION. Evidence-based psychological practice in health care. Washington: APA, 2021.
  • FISHER, J. E.; O’DONOHUE, W. T. (Orgs.). Practitioner’s guide to evidence-based psychotherapy. New York: Springer, 2006.
  • FITZPATRICK, K. K.; DARCHEVILLE, M. R.; KLINE, A. C. Delivering cognitive behavior therapy to young adults with depression using a fully automated conversational agent (Woebot). JMIR Mental Health, v. 4, n. 2, 2017.
  • KEIERLEBER, Mark. Young and depressed? Try Woebot! The rise of mental health chatbots in the US. The Guardian, Londres, 13 abr. 2022. Disponível em: https://www.theguardian.com/us-news/2022/apr/13/chatbots-robot-therapists-youth-mental-health-crisis. Acesso em: 29 abr. 2025.
  • LI, Han; ZHANG, Renwen; LEE, Yi-Chieh; KRAUT, Robert E.; MOHR, David C. Systematic review and meta-analysis of AI-based conversational agents for promoting mental health and well-being. NPJ Digital Medicine, [s. l.], v. 6, art. 236, 19 dez. 2023. DOI: 10.1038/s41746-023-00979-5. Disponível em: https://www.nature.com/articles/s41746-023-00979-5. Acesso em: 29 abr. 2025.
  • MELLO, Michelle M.; EVANS, Barbara. Regulation of health and health care artificial intelligence. JAMA, Chicago, publicado on-line em 17 mar. 2025. DOI: 10.1001/jama.2025.3308. Disponível em: https://jamanetwork.com/journals/jama/fullarticle/2831831. Acesso em: 29 abr. 2025.
  • MONTGOMERY, Blake. Mother says AI chatbot led her son to kill himself in lawsuit against its maker. The Guardian, Londres, 23 out. 2024. Disponível em: https://www.theguardian.com/technology/2024/oct/23/character-ai-chatbot-sewell-setzer-death. Acesso em: 29 abr. 2025.
  • MOZILLA FOUNDATION. Shady mental health apps inch toward privacy and security improvements, but many still siphon personal data. San Francisco: Mozilla Foundation Blog, 2 maio 2023a. Disponível em: https://foundation.mozilla.org/en/blog/shady-mental-health-apps-inch-toward-privacy-and-security-improvements-but-many-still-siphon-personal-data/. Acesso em: 29 abr. 2025.
  • MOZILLA FOUNDATION. Mental Health Apps – Privacy & Security Guide. San Francisco: Mozilla Foundation, 2023b. Disponível em: https://foundation.mozilla.org/en/privacynotincluded/categories/mental-health-apps/. Acesso em: 29 abr. 2025.
  • MOREIRA, M. B.; ARAÚJO, T. S. de (Orgs.). Prática psicológica baseada em evidências: definição e exemplos. Brasília: Instituto Walden4, 2021.
  • SOCIETY FOR EVIDENCE-BASED PSYCHOLOGICAL INTERVENTIONS. Evidence-based psychological interventions in the treatment of mental disorders. 4. ed. Melbourne: Australian Psychological Society, 2018.
  • WORLD HEALTH ORGANIZATION. ICD-11: Guia de Referência. Genebra: OMS, 2024.

Gostou do conteúdo? Compartilhe com seus amigos e ajude mais pessoas a entenderem a saúde emocional!

Borderline (44) Depoimentos (7) Narcisismo (298) Outros (244) TDAH (8)


Comentários

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *