Extra

Os chatbots invadiram a psicoterapia. E agora?

PUB | 56 minutos atrás em 18-05-2025

PUBLICIDADE

PUBLICIDADE

publicidade
publicidade

A utilização de inteligência artificial na área da saúde mental está a crescer de forma acelerada. Ferramentas como o ChatGPT e outras plataformas de IA estão a ser cada vez mais procuradas por quem precisa de apoio emocional ou de orientação psicológica. 

PUBLICIDADE

Seja por sentirem curiosidade pela tecnologia, seja por não terem alternativa, são cada vez mais as pessoas que procuram os chatbots para pedir aconselhamento psicológico. Mas será que os chatbots estão realmente preparados para substituir os psicólogos humanos? E o que está em jogo quando se partilha informações íntimas com uma inteligência artificial?

Numa época pós-pandemia, os temas da saúde mental adquiriram uma dimensão inédita: a solidão provocada por quase dois anos de isolamento intermitente provocou um turbilhão de emoções que ainda não foi resolvido. Se à primeira vista um conselheiro virtual parece ser boa ideia, é preciso ter consciência do preço a pagar. 

IA na saúde mental: acessível, mas controversa

A inteligência artificial oferece uma acessibilidade inédita, contornando problemas financeiros e logísticos que muitas vezes estão associados à terapia tradicional. Milhões de utilizadores em todo o mundo interagem diariamente com assistentes como o ChatGPT, que dão conselhos rápidos, respostas empáticas e sugerem até técnicas de regulação emocional — tudo num espaço digital que está disponível 24 horas por dia, sete dias por semana.

Em determinados contextos, os chatbots podem ajudar a reduzir sintomas de ansiedade e a proporcionar um conforto imediato, como defende um estudo do Darmouth College, publicado recentemente no New England Journal of Medicine. Os investigadores dizem, porém, que este apoio — comparável à terapia ambulatória — não deve substituir o tratamento psicológico convencional. 

O uso exagerado de chatbots pode agravar os sentimentos de solidão, uma vez que a interação com uma máquina não substitui uma ligação humana genuína. A sua constante disponibilidade pode também levar a uma dependência por parte do utilizador, com consequências que ainda não foram avaliadas. Além disso, é enorme a proliferação de assistentes virtuais baseados na inteligência artificial, e nem todos estão preparados para dar respostas adequadas a problemas de grande complexidade. 

Um assistente pessoal criado em Portugal

Um grupo de psicólogos portugueses percebeu que os chatbots tinham ocupado um espaço irrecuperável nesta área e, por esse motivo, decidiram criar o seu próprio assistente virtual. O Roomie consegue detetar a linguagem humana, incluindo a complexidade da comunicação, quer através de texto quer de voz, destinando-se a apoiar gratuitamente pessoas com perturbações de ansiedade, depressão e outros problemas emocionais.

Apresentado no 6.º Congresso da Ordem dos Psicólogos Portugueses, o projeto pretende ser um complemento – e não um substituto – do acompanhamento profissional. E tem a vantagem de conseguir “identificar da melhor forma possível potenciais situações de emergência e redirecionar o utilizador para contactos de apoio humano, promovendo segurança e bem-estar”, de acordo com a sua página oficial.

No Roomie, como noutras plataformas, estas interações envolvem limites éticos, técnicos e de segurança que é preciso ter em conta: o ChatGPT, bem como outras plataformas semelhantes, não é terapeuta, nem pretende ser. Embora consiga simular empatia, sugerir exercícios de respiração ou ajudar a organizar os pensamentos, não tem formação clínica nem competência para lidar com traumas profundos, crises emocionais ou diagnósticos complexos.

A questão da privacidade e da segurança: está protegido?

As conversas com chatbots ignoram, com frequência, a questão da segurança. Quando alguém partilha os seus pensamentos mais íntimos com um chatbot, está a transmitir dados sensíveis, que podem ser registados, analisados ou, em última análise, comprometidos. Em quase todos os casos, as conversas com a IA incluem outras pessoas, situações concretas e factos que não queremos ver expostos. 

É possível minimizar o risco de que terceiros tenham acesso a conversas confidenciais com um chatbot, sejam eles hackers ou plataformas que recolhem dados para fins comerciais. Se usarmos uma VPN, estaremos a conversar através de uma ligação encriptada entre o utilizador e a internet, que protege a identidade e os dados partilhados.  

Além disso, algumas plataformas de inteligência artificial podem estar limitadas pela localização geográfica. Com uma VPN, é possível aceder de forma segura a serviços de terapia digital que estejam disponíveis apenas noutros países, ampliando as opções de apoio para quem mais precisa.

Vivemos numa era em que a tecnologia oferece soluções inovadoras para problemas antigos, incluindo a solidão e a saúde mental. Os chatbots com IA podem ser uma ferramenta útil, desde que usados com equilíbrio, discernimento e com as devidas precauções, que passam por zelar pela segurança dos dados, sobretudo tendo em conta a sua natureza sensível. O futuro da terapia pode incluir algoritmos, mas nunca poderá excluir a empatia genuína que só um ser humano consegue oferecer.

Meta description
Chatbots como o ChatGPT estão a ganhar espaço na saúde mental. Serão seguros? Descubra riscos, benefícios e como uma VPN protege os seus dados.

PUBLICIDADE

publicidade

PUBLICIDADE