Saltar para o conteúdo

Relatam-se casos de “psicose por IA”. Quão perigoso é isto?

Duas pessoas sentadas à mesa, uma a mostrar mensagens no computador portátil à outra.

A inteligência artificial está cada vez mais entranhada na vida quotidiana - desde robôs de conversação que fazem companhia até algoritmos que influenciam aquilo que vemos na internet.

No entanto, à medida que a IA generativa se torna mais dialogante, envolvente e emocionalmente responsiva, alguns clínicos começaram a colocar uma questão incómoda: poderá a IA generativa agravar - ou até desencadear - psicose em pessoas vulneráveis?

Os grandes modelos de linguagem e os robôs de conversação são facilmente acessíveis e, muitas vezes, apresentados como ferramentas de apoio, empáticas ou mesmo terapêuticas. Para a maioria dos utilizadores, estes sistemas são úteis ou, na pior das hipóteses, inofensivos.

Ainda assim, nos últimos tempos, vários relatos nos meios de comunicação social descreveram pessoas com sintomas psicóticos em que o ChatGPT surge como elemento central.

Para um grupo pequeno, mas relevante - pessoas com perturbações psicóticas ou com risco elevado - as interações com a IA generativa podem ser muito mais complexas e perigosas, levantando questões urgentes para os profissionais de saúde.

Como a IA generativa passa a integrar sistemas de crenças delirantes

A expressão "psicose por IA" não corresponde a um diagnóstico psiquiátrico formal. Trata-se, antes, de uma abreviatura emergente usada por clínicos e investigadores para descrever sintomas psicóticos que são moldados, intensificados ou organizados em torno de interações com sistemas de IA.

A psicose envolve uma perda de contacto com a realidade partilhada. Alucinações, delírios e pensamento desorganizado são características centrais. Os delírios em contexto de psicose recorrem frequentemente a material cultural - religião, tecnologia ou estruturas de poder político - para dar sentido a experiências internas.

Historicamente, os delírios já fizeram referência a vários temas, como Deus, ondas de rádio ou vigilância governamental. Atualmente, a IA oferece um novo suporte narrativo.

Alguns doentes relatam crenças de que a IA generativa é senciente, que comunica verdades secretas, que controla os seus pensamentos ou que colabora com eles numa missão especial. Estes motivos são compatíveis com padrões antigos observados na psicose, mas a IA acrescenta um nível de interatividade e de reforço que tecnologias anteriores não proporcionavam.

O risco de validação sem verificação da realidade

A psicose está fortemente associada à saliência aberrante, isto é, à tendência para atribuir significado excessivo a acontecimentos neutros. Os sistemas de IA conversacional, por conceção, produzem linguagem responsiva, coerente e sensível ao contexto. Para alguém com psicose emergente, isto pode parecer estranhamente validante.

A investigação sobre psicose indica que a confirmação e a personalização podem intensificar sistemas de crenças delirantes. A IA generativa é otimizada para prolongar diálogos, espelhar a linguagem do utilizador e ajustar-se à intenção percecionada.

Embora isto seja inócuo para a maioria, pode reforçar inadvertidamente interpretações distorcidas em pessoas com verificação da realidade comprometida - o processo de distinguir entre pensamentos e imaginação internos e a realidade objetiva e externa.

Também existe evidência de que o isolamento social e a solidão aumentam o risco de psicose. Companheiros de IA generativa podem aliviar a solidão no curto prazo, mas também podem substituir relações humanas.

Isto é particularmente relevante para indivíduos que já estejam a afastar-se do contacto social. A dinâmica tem pontos em comum com preocupações anteriores sobre uso excessivo da internet e saúde mental, mas a profundidade conversacional da IA generativa moderna é qualitativamente diferente.

O que a investigação mostra - e o que ainda não sabemos

Neste momento, não há evidência de que a IA cause psicose de forma direta.

As perturbações psicóticas são multifatoriais e podem envolver vulnerabilidade genética, fatores do neurodesenvolvimento, trauma e consumo de substâncias. Ainda assim, existe preocupação clínica de que a IA possa atuar como fator precipitante ou de manutenção em indivíduos suscetíveis.

Relatos de caso e estudos qualitativos sobre media digitais e psicose mostram que temas tecnológicos se tornam muitas vezes parte dos delírios, sobretudo durante um primeiro episódio psicótico.

A investigação sobre algoritmos de redes sociais já demonstrou como sistemas automatizados podem amplificar crenças extremas através de ciclos de reforço. Os sistemas de conversação com IA poderão apresentar riscos semelhantes se as barreiras de segurança forem insuficientes.

Importa notar que a maioria dos programadores de IA não concebe estes sistemas tendo em conta doença mental grave. Os mecanismos de segurança tendem a focar-se na autoagressão ou na violência, e não na psicose. Isto cria uma lacuna entre o conhecimento em saúde mental e a implementação de IA.

Questões éticas e implicações clínicas

Do ponto de vista da saúde mental, o desafio não é demonizar a IA, mas reconhecer que a vulnerabilidade não é igual para todos.

Tal como certos medicamentos ou substâncias comportam maior risco para pessoas com perturbações psicóticas, algumas formas de interação com IA podem exigir prudência.

Os clínicos começam a deparar-se com conteúdo relacionado com IA no material delirante, mas existem poucas orientações clínicas sobre como avaliar ou gerir estas situações. Deverão os terapeutas perguntar sobre o uso de IA generativa do mesmo modo que perguntam sobre consumo de substâncias? Deverão os sistemas de IA identificar e desescalar ideação psicótica, em vez de a acompanhar?

Há também questões éticas para os programadores. Se um sistema de IA se apresenta como empático e credível, terá um dever de cuidado? E quem é responsável quando um sistema reforça inadvertidamente um delírio?

Aproximar o design da IA dos cuidados de saúde mental

A IA não vai desaparecer. A tarefa, agora, é incorporar conhecimento especializado em saúde mental no design de IA, desenvolver literacia clínica sobre experiências relacionadas com IA e garantir que utilizadores vulneráveis não são prejudicados inadvertidamente.

Isto exigirá colaboração entre clínicos, investigadores, especialistas em ética e tecnólogos. Exigirá também resistir ao entusiasmo exagerado (tanto utópico como distópico) em favor de uma discussão baseada em evidência.

À medida que a IA se torna mais semelhante ao humano, a pergunta que se segue é: como podemos proteger quem é mais vulnerável à sua influência?

A psicose sempre se adaptou às ferramentas culturais do seu tempo. A IA é apenas o espelho mais recente através do qual a mente tenta compreender-se. A nossa responsabilidade, enquanto sociedade, é garantir que esse espelho não distorce a realidade para quem tem menos capacidade de a corrigir.

Alexandre Hudon, psiquiatra, clínico-investigador e professor assistente clínico no departamento de psiquiatria e adictologia, Université de Montréal

Este artigo é republicado de The Conversation ao abrigo de uma licença Creative Commons. Leia o artigo original.

Comentários

Ainda não há comentários. Seja o primeiro!

Deixar um comentário