O número de pessoas que acessam chatbots para conversar cresce assustadoramente. Sistemas como o ChatGPT ou o Copilot estão sendo, inadvertidamente, utilizados de uma maneira que pode ser muito mais prejudicial que saudável.
Conforme a matéria do jornal The Washington Post alerta, muitos usuários estão simplesmente perdendo a noção de realidade após utilizarem intensamente um sistema de IA generativa, no que está ficando conhecido como psicose de IA.

Esses casos, na maioria das vezes, envolvem pessoas que passam a acreditar em crenças falsas, delírios de grandeza ou até geram surtos paranoicos nos usuários depois de horas de conversa com um chatbot que, a princípio, funcionaria com uma perigosa terapia gratuita.
Entenda o que é a “psicose de IA”
Não existe um termo clínico ou diagnóstico que afirme que exista a doença. Especialistas em saúde mental explicaram ao jornal que o termo, assim como outros, como “deterioração cerebral”, ganhou força pela internet como uma forma simples para descrever esse tipo de comportamento.
Mas todos os especialistas consultados pelo Washington Post foram categóricos em afirmar que os “incidentes preocupantes como os compartilhados por usuários de chatbots ou seus entes queridos merecem atenção imediata e estudos mais aprofundados”.
O fenômeno é tão novo e está acontecendo rapidamente que simplesmente não temos evidências empíricas para ter uma compreensão sólida do que está acontecendo.
Vaile Wright, diretor sênior de inovação em saúde da Associação Americana de Psicologia em entrevista ao Washington Post.
A preocupação é tamanha que Wright comentou que a associação está convocando um painel de especialista para discutir o uso dos sistemas de inteligência artificial na terapia.
Usuários relatam ter perdido o emprego e até viram seus relacionamentos estremecidos

Para a revista Time, apesar de impactarem uma minoria de usuários, os relatos que surgem quase diariamente pela internet são perturbadores. São casos que mostram que o uso prolongado de chatbots pode “desencadear ou amplificar sintomas psicóticos em algumas pessoas”, e as consequências são devastadoras, desde a perda de empregos ou relacionamentos rompidos até, em alguns casos, levando o usuário a morte.
O problema é que, como falamos anteriormente, não há estudos que auxiliem os profissionais de saúde mental a lidarem com o problema. Ainda assim, há quem discorde do uso do termo. O Dr. James MacCabe, do departamento de estudos de psicose do King’s College de Londres é um deles.
O termo é normalmente usado ao analisar um conjunto de sintomas, afirma o médico, como pensamento desordenado, alucinações e delírios, normalmente observados em surtos de esquizofrenia ou transtorno bipolar. Mas, no caso da psicose de IA, “estamos falando predominantemente de delírios, não de toda a gama de psicoses”, explica MacCabe à revista Time.
Leia mais:
- Pais processam OpenAI por morte de adolescente envolvendo o ChatGPT
- Relação de idoso com chatbot acaba em tragédia nos Estados Unidos
- IA sem preconceitos? Estudos mostram que o desafio pode ser maior do que pensamos
Segundo psiquiatras consultados pela Time, o “fenômeno parece refletir vulnerabilidades familiares em novos contextos, não um novo transtorno. Mas, segundo eles, isso está “ligado à forma como os chatbots se comunicam”. Seja pelo seu design, linguagem utilizada ou validando suposições dos usuários, reforçando “o pensamento distorcido em pessoas mais vulneráveis”.

Quem corre mais riscos?
Keith Sakata, psiquiatra da Universidade da Califórnia, disse ao The Washington Post que já “internou uma dúzia de pessoas por psicose após passarem muito tempo conversando com a IA”. Para a médica, estão mais suscetíveis pessoas com problemas de:
- Uso de drogas.
- Traumas.
- Privação de sono.
- Problemas para dormir.
- Febre.
- Esquizofrenia.
Por isso, segundo Sakata, “psiquiatras procuram evidências, incluindo delírios, pensamento desorganizado ou alucinações” para entenderem o estado do paciente.
O grande problema, segundo Kevin Caridade, psicoterapeuta consultado pelo jornal americano, é que as pessoas podem procurar a IA “para validar pensamentos prejudiciais ou negativos”, criando um ciclo sem fim que pode tornar os sintomas incontroláveis. No entanto, reconhecer quando o uso de chatbots se tornou um problema pode não ser simples.
Quando as pessoas desenvolvem delírios, elas não percebem que são delírios. Elas acham que é a realidade.
Dr. James MacCabe, do departamento de estudos de psicose do King’s College de Londres, à revista Time.
Por isso, é muito importante que a pessoa que esteja passando por isso tenha apoio integral da sua família. É preciso estar atento a mudanças de humor, sono ou comportamento social, incluindo sinais de distanciamento ou retraimento e sempre buscar ajuda de um especialista, nunca da própria IA.
E as empresas, o que estão fazendo?
De acordo com o The Washington Post, nas últimas semanas, “as empresas de IA fizeram mudanças para lidar com as preocupações sobre riscos à saúde mental associados a passar muito tempo conversando com chatbots”.
A Meta, em nota, afirmou que os pais “podem impor restrições à quantidade de tempo gasto conversando com a IA em contas de adolescentes no Instagram”. A OpenAI afirma estar investindo na melhoria do comportamento do ChatGPT. A Anthropic, responsável pelo chatbot Claude, atualizou diretrizes que moldam o comportamento de seus chatbots e passou a colaborar com a ThroughLine, empresa que fornece infraestrutura de suporte em crises para diversas empresas, como o Google e o Tinder.
O post Chatbots podem levar a crises de saúde mental apareceu primeiro em Olhar Digital.