A inteligência artificial está cada vez mais entranhada no quotidiano - desde robôs de conversa que simulam companhia até algoritmos que influenciam o que aparece no ecrã quando navegamos na internet.
À medida que a IA generativa se torna mais conversacional, envolvente e aparentemente sensível às emoções, começa a impor-se uma pergunta desconfortável na prática clínica: será que a IA generativa pode agravar - ou até precipitar - psicose em pessoas com maior vulnerabilidade?
Os modelos de linguagem de grande escala e os robôs de conversa estão ao alcance de quase toda a gente e são frequentemente apresentados como ferramentas de apoio, empáticas ou mesmo “terapêuticas”. Para a maioria dos utilizadores, estas soluções são úteis ou, no pior cenário, inócuas.
Ainda assim, nos últimos tempos, vários relatos mediáticos têm descrito pessoas com sintomas psicóticos em que o ChatGPT surge como elemento central.
Para um grupo pequeno, mas clinicamente relevante - pessoas com perturbações psicóticas ou com risco elevado - a relação com a IA generativa pode ser mais complexa e potencialmente perigosa, o que coloca questões urgentes a profissionais de saúde mental.
Como a IA passa a integrar sistemas delirantes
A expressão “psicose associada à IA” não corresponde a um diagnóstico psiquiátrico formal. Trata-se, isso sim, de uma designação informal, usada por alguns clínicos e investigadores, para descrever sintomas psicóticos que são moldados, intensificados ou organizados em torno de interacções com sistemas de inteligência artificial.
Na psicose, ocorre uma ruptura com a realidade partilhada. Alucinações, delírios e pensamento desorganizado estão entre as características nucleares. Muitas vezes, os delírios recorrem a material cultural - religião, tecnologia ou estruturas de poder político - como forma de dar sentido a experiências internas.
Ao longo da história, foram comuns delírios que envolviam Deus, ondas de rádio ou vigilância estatal. Hoje, a IA pode funcionar como uma nova “estrutura narrativa” disponível para esse mesmo processo.
Alguns doentes descrevem convicções como: a IA é consciente; transmite verdades secretas; influencia ou controla pensamentos; ou colabora com a pessoa numa missão especial. Estes temas não são inéditos no contexto psicótico, mas a IA acrescenta interactividade e reforço contínuo de uma forma que tecnologias anteriores raramente proporcionavam.
O perigo da validação sem “travões” de realidade
A psicose está fortemente associada ao fenómeno de saliência aberrante: a tendência para atribuir significado excessivo a acontecimentos neutros. Os robôs de conversa são concebidos para produzir linguagem coerente, responsiva e sensível ao contexto. Para alguém em início de psicose, essa resposta pode ser sentida como uma validação inquietantemente convincente.
A investigação sobre psicose mostra que confirmação e personalização podem fortalecer sistemas delirantes. A IA generativa é optimizada para manter a conversa, espelhar o estilo do utilizador e ajustar-se ao que interpreta como intenção.
Embora isto não represente problema para a maioria, pode, sem querer, reforçar interpretações distorcidas em pessoas com fragilidades no teste de realidade - a capacidade de distinguir entre pensamentos e imaginação, por um lado, e a realidade externa e objectiva, por outro.
Também existem indícios de que isolamento social e solidão aumentam o risco de psicose. Companheiros baseados em IA podem atenuar a solidão a curto prazo, mas, em certos casos, acabam por substituir relações humanas.
Isto tende a ser mais provável em pessoas que já estão a afastar-se do contacto social. Há paralelos com preocupações antigas sobre uso excessivo da internet e saúde mental, mas a profundidade conversacional da IA generativa actual representa uma diferença qualitativa.
O que a investigação indica - e o que ainda não sabemos
Neste momento, não há evidência de que a IA, por si só, cause psicose.
As perturbações psicóticas são multifatoriais, podendo envolver vulnerabilidade genética, factores do neurodesenvolvimento, trauma e consumo de substâncias. Ainda assim, existe preocupação clínica de que a IA possa actuar como factor precipitante ou de manutenção em indivíduos susceptíveis.
Relatos de caso e estudos qualitativos sobre media digitais e psicose sugerem que temas tecnológicos se incorporam frequentemente nos delírios, sobretudo durante um primeiro episódio psicótico.
Por outro lado, a investigação sobre algoritmos em redes sociais já demonstrou como sistemas automatizados podem amplificar crenças extremas através de ciclos de reforço. Os sistemas de conversa com IA podem implicar riscos semelhantes quando as barreiras de segurança são insuficientes.
Importa também sublinhar que muitos criadores de IA não desenvolvem estes sistemas a pensar em pessoas com doença mental grave. Os mecanismos de segurança costumam concentrar-se em auto-agressão ou violência, e não em psicose. O resultado é um desfasamento entre o que se sabe em saúde mental e a forma como a tecnologia é colocada em circulação.
Implicações clínicas e dilemas éticos
Do ponto de vista da saúde mental, o desafio não passa por demonizar a tecnologia, mas por reconhecer que existe vulnerabilidade diferenciada.
Tal como certos medicamentos ou substâncias são mais arriscados para pessoas com perturbações psicóticas, alguns tipos de interacção com robôs de conversa podem justificar prudência acrescida.
Os clínicos começam a encontrar referências à IA no conteúdo delirante, mas poucas orientações clínicas explicam como avaliar ou gerir esta dimensão. Faz sentido perguntar sobre utilização de IA generativa da mesma forma que se pergunta sobre consumo de álcool ou drogas? Devem os sistemas de IA identificar sinais de ideação psicótica e procurar reduzir a escalada, em vez de alimentar o tema?
Do lado dos programadores, surgem questões éticas difíceis. Se um sistema parece empático e autoritário, terá uma responsabilidade de cuidado? E quem responde quando, inadvertidamente, a IA reforça um delírio?
(Parágrafo adicional) Sinais de alerta e conversas que vale a pena ter
Na prática, pode ser útil estar atento a mudanças como aumento súbito do tempo passado com a IA, convicções firmes de que a ferramenta “sabe” verdades ocultas, sensação de missão especial orientada pela IA, ou deterioração do funcionamento (sono, trabalho, estudos, relações). Em contexto clínico, explorar como a pessoa usa a IA (para companhia, validação, orientação moral, tomada de decisões) pode ajudar a enquadrar riscos sem julgamento e a planear estratégias de segurança.
(Parágrafo adicional) Reforçar literacia digital e alternativas humanas
Em pessoas com risco elevado, uma abordagem pragmática pode incluir limites de exposição, incentivo a rotinas de sono, redução de isolamento e criação de planos de apoio com família ou rede próxima. Em paralelo, aumentar a literacia sobre como os modelos de linguagem de grande escala geram respostas (probabilidades linguísticas, não “verdades”) pode reduzir leituras literalistas e ajudar a recuperar o teste de realidade - sobretudo quando este trabalho é acompanhado por cuidados clínicos consistentes.
Aproximar o design de IA dos cuidados em saúde mental
A IA não vai desaparecer. O passo seguinte é incorporar conhecimento de saúde mental no desenho dos sistemas, fortalecer a literacia clínica sobre experiências relacionadas com IA e garantir que utilizadores vulneráveis não são prejudicados inadvertidamente.
Isto exigirá colaboração entre clínicos, investigadores, especialistas em ética e tecnólogos. Exigirá também resistência ao entusiasmo acrítico e ao alarmismo, privilegiando debate sustentado por evidência.
À medida que a IA se torna mais “humana” na forma, a pergunta torna-se inevitável: como proteger quem é mais vulnerável à sua influência?
A psicose sempre se adaptou às ferramentas culturais de cada época. A IA é apenas o espelho mais recente através do qual a mente tenta fazer sentido de si própria. A responsabilidade colectiva é assegurar que esse espelho não distorce a realidade para quem tem menos capacidade de a corrigir.
Alexandre Hudon, psiquiatra, clínico-investigador e professor assistente clínico no Departamento de Psiquiatria e Adictologia, Universidade de Montreal
Este artigo é republicado de uma plataforma de jornalismo académico ao abrigo de uma licença CC. Leia o artigo original.
Comentários
Ainda não há comentários. Seja o primeiro!
Deixar um comentário