APA publica diretrizes para uso responsável da IA na saúde mental
Por Simone Salles
Na Medicina, a tecnologia avança rapidamente: já é comum o uso de chatbots para marcar consultas e dar orientações básicas de saúde. Em diversas áreas médicas, as pesquisas já sugerem que ferramentas de inteligência artificial (IA) chegam a ter precisão semelhante à dos médicos em diagnósticos. Tanto os pacientes quanto os profissionais de saúde testam todos os dias a capacidade das ferramentas de IA produzirem um diagnóstico correto, com resultados considerados satisfatórios.
Mas, quando o assunto é saúde mental, a lógica é diferente do que ocorre na ortopedia e na cardiologia, por exemplo. Não há respostas simples de “sim ou não”, mas uma complexa gradação de sinais e sintomas. Esses fatores, combinados, podem indicar desde situações patológicas até questões mais leves, presentes no dia a dia de quase todos nós.
O aumento de relatos sobre psicose relacionada ao uso da IA alerta para a necessidade de supervisão clínica, governança de dados e proteção contra uso indevido ou dependência tecnológica. O termo “psicose de IA” vem sendo usado para descrever situações em que pessoas desenvolvem forte dependência de chatbots e acabam acreditando em conteúdos ou experiências irreais como se fossem verdadeiros.
Um chatbot é um software baseado em uma Inteligência Artificial capaz de manter uma conversa em tempo real por texto ou por voz. A Associação Americana de Psicologia (APA) divulgou no último ano um conjunto de diretrizes para orientar psicólogos no uso de IA em questões de saúde mental.
O relatório reforça que chatbots e sistemas de IA não devem substituir a interação humana na terapia, mas reconhece um espaço significativo para que psicólogos utilizem a IA de forma ética, segura e eficaz. Assim, podem ampliar o alcance dos serviços e enriquecer a prática clínica com ferramentas de suporte, desde que observados os padrões éticos e de segurança.
Entre os benefícios, a APA aponta a triagem e detecção precoce de riscos, os planos de tratamento mais personalizados, o monitoramento remoto de sintomas e as plataformas de apoio terapêutico com assistência orientada por IA. Também são listados os limites e riscos, incluindo questões de privacidade, vieses de dados, segurança de informações sensíveis, dependência tecnológica e a importância de preservar o vínculo humano na relação terapêutica. A APA alerta, ainda, sobre práticas enganosas no setor.
As diretrizes enfatizam a importância da transparência no uso de IA, do consentimento informado, da validação clínica de ferramentas, da supervisão profissional e da responsabilidade ética. Recomendam também a avaliação de evidência e os processos de supervisão para psicólogos que empregam IA na prática clínica.
Os terapeutas destacam que a IA na psicologia pode trazer benefícios quando controlada por profissionais, mas admitem riscos que exigem gestão cuidadosa de limites, qualidade de dados e supervisão clínica. Eles lembram que o cenário regulatório está em evolução, e faltam marcos que assegurem a confiabilidade, a aplicabilidade dos modelos de IA e eventuais auditorias independentes.
A integração da IA na saúde mental permanece promissora, porém exige uma implementação cuidadosa, um equilíbrio entre inovação e ética, privacidade e qualidade do cuidado humano. A revisão de estudos publicados em bases de dados de literatura científica como PubMed, PsycINFO e outras aponta para possibilidades positivas como a detecção precoce de transtornos e a indicação de terapias virtuais orientadas por IA, sempre com ressalvas éticas. O caminho apontado pela APA é de validação clínica e supervisão contínua, para que as ferramentas de IA complementem a prática psicológica sem comprometer a relação terapêutica humana.