
Nos últimos anos, ferramentas de inteligência artificial (IA), como chatbots e aplicativos de “apoio emocional”, têm ganhado espaço na área da saúde mental. Elas prometem acessibilidade, disponibilidade 24 horas e baixo custo. Mas será que podemos confiar nelas como substitutas da terapia com um profissional?
A ciência mostra que não. Veja abaixo os principais pontos.
1. O que os estudos dizem
-
Melhora de curto prazo: algumas pesquisas encontraram pequena redução de ansiedade e depressão após algumas semanas de uso de chatbots.
-
Limitações importantes: os efeitos desaparecem no médio prazo e não há evidência sólida de que funcionem em casos moderados ou graves.
-
Mercado instável: existem mais de 10 mil aplicativos de saúde mental, muitos sem supervisão clínica e que desaparecem rapidamente, o que compromete a continuidade do cuidado.
2. Principais riscos
a) Erros e informações inventadas
Chatbots podem “alucinar” — dar respostas erradas, inventar diagnósticos ou até referências inexistentes. Isso pode ser perigoso quando a pessoa está em sofrimento.
b) Viés e desigualdades
Pesquisas mostram que algumas IAs respondem com menos empatia a pessoas negras e asiáticas, ou minimizam sintomas de mulheres, reproduzindo preconceitos existentes nos dados de treino.
c) Privacidade frágil
Muitos aplicativos de saúde mental coletam e compartilham dados sensíveis com terceiros. Isso inclui histórico emocional, sintomas e até localização.
d) Vínculo limitado
Na terapia tradicional, a relação de confiança com o profissional é um fator essencial. Bots não conseguem criar a mesma aliança terapêutica, o que reduz a efetividade.
e) Falha em crises
Em situações graves (como risco de suicídio), chatbots podem não oferecer o suporte adequado, deixando a pessoa sem uma rota segura de ajuda.
3. O que dizem os especialistas
A Organização Mundial da Saúde (OMS) recomenda cautela: essas ferramentas devem ser usadas apenas como complemento, sempre com supervisão profissional, nunca como substitutas de psicoterapia.
4. O que você pode fazer em segurança
-
Não substitua terapia: use IA apenas para lembretes, exercícios de respiração ou registros de humor.
-
Confira a privacidade: prefira aplicativos com política de dados clara e transparente.
-
Use junto a um profissional: converse com seu terapeuta se quiser integrar algum aplicativo ao seu processo.
-
Tenha plano de emergência: em crises, procure serviços de saúde mental locais, CAPS, ou ligue para canais de emergência.
Conclusão
A inteligência artificial pode ser uma ferramenta útil de apoio, mas não é terapia. Os riscos de erros, vieses, falta de privacidade e ausência de suporte em crises mostram que nada substitui o acompanhamento humano.
A melhor abordagem é usar IA de forma complementar, sempre com supervisão profissional, garantindo que a tecnologia seja aliada — e não risco — no cuidado com a saúde mental.