Arquivo da tag: chatgpt

IA não é terapia: entendendo os riscos de usar inteligência artificial na saúde mental

Nos últimos anos, ferramentas de inteligência artificial (IA), como chatbots e aplicativos de “apoio emocional”, têm ganhado espaço na área da saúde mental. Elas prometem acessibilidade, disponibilidade 24 horas e baixo custo. Mas será que podemos confiar nelas como substitutas da terapia com um profissional?

A ciência mostra que não. Veja abaixo os principais pontos.


1. O que os estudos dizem

  • Melhora de curto prazo: algumas pesquisas encontraram pequena redução de ansiedade e depressão após algumas semanas de uso de chatbots.

  • Limitações importantes: os efeitos desaparecem no médio prazo e não há evidência sólida de que funcionem em casos moderados ou graves.

  • Mercado instável: existem mais de 10 mil aplicativos de saúde mental, muitos sem supervisão clínica e que desaparecem rapidamente, o que compromete a continuidade do cuidado.


2. Principais riscos

a) Erros e informações inventadas

Chatbots podem “alucinar” — dar respostas erradas, inventar diagnósticos ou até referências inexistentes. Isso pode ser perigoso quando a pessoa está em sofrimento.

b) Viés e desigualdades

Pesquisas mostram que algumas IAs respondem com menos empatia a pessoas negras e asiáticas, ou minimizam sintomas de mulheres, reproduzindo preconceitos existentes nos dados de treino.

c) Privacidade frágil

Muitos aplicativos de saúde mental coletam e compartilham dados sensíveis com terceiros. Isso inclui histórico emocional, sintomas e até localização.

d) Vínculo limitado

Na terapia tradicional, a relação de confiança com o profissional é um fator essencial. Bots não conseguem criar a mesma aliança terapêutica, o que reduz a efetividade.

e) Falha em crises

Em situações graves (como risco de suicídio), chatbots podem não oferecer o suporte adequado, deixando a pessoa sem uma rota segura de ajuda.


3. O que dizem os especialistas

A Organização Mundial da Saúde (OMS) recomenda cautela: essas ferramentas devem ser usadas apenas como complemento, sempre com supervisão profissional, nunca como substitutas de psicoterapia.


4. O que você pode fazer em segurança

  • Não substitua terapia: use IA apenas para lembretes, exercícios de respiração ou registros de humor.

  • Confira a privacidade: prefira aplicativos com política de dados clara e transparente.

  • Use junto a um profissional: converse com seu terapeuta se quiser integrar algum aplicativo ao seu processo.

  • Tenha plano de emergência: em crises, procure serviços de saúde mental locais, CAPS, ou ligue para canais de emergência.


Conclusão

A inteligência artificial pode ser uma ferramenta útil de apoio, mas não é terapia. Os riscos de erros, vieses, falta de privacidade e ausência de suporte em crises mostram que nada substitui o acompanhamento humano.

A melhor abordagem é usar IA de forma complementar, sempre com supervisão profissional, garantindo que a tecnologia seja aliada — e não risco — no cuidado com a saúde mental.