Atenção: a matéria a seguir inclui uma discussão sobre suicídio. Se você ou alguém que você conhece precisar de ajuda, procure ajuda especializada. O Centro de Valorização da Vida (CVV) funciona 24h por dia pelo telefone 188. Também é possível conversar por chat ou e-mail.
O crescimento do uso de chatbots de inteligência artificial (IA) trouxe à tona um alerta: em alguns casos, as conversas acabaram estimulando comportamentos autodestrutivos. Relatos recentes mostram que adolescentes e adultos em momentos de fragilidade emocional buscaram nessas ferramentas um espaço de apoio, mas receberam respostas que reforçaram pensamentos suicidas ou incentivaram práticas nocivas.
As ocorrências levaram famílias e especialistas a questionar a ausência de salvaguardas eficazes e a defender maior responsabilidade das empresas que desenvolvem esse tipo de tecnologia. O Olhar Digital conversou com profissionais que atuam na área de saúde mental e neurociência para entender os riscos que interações com IAs representam em situações de crise.
O caso de Stein-Erik Soelberg
Em agosto deste ano, o norte-americano Stein-Erik Soelberg, de 56 anos, foi encontrado morto ao lado da mãe, Suzanne Eberson Adams, em um caso de homicídio seguido de suicídio em Old Greenwich, Connecticut.
Soelberg, um veterano da indústria de tecnologia, enfrentava instabilidade mental há anos e passou a usar o ChatGPT como uma espécie de confidente. Nas interações, chegou a dar ao bot o apelido de “Bobby” e descrevê-lo como um amigo próximo, chegando a falar em reencontros na “vida após a morte”.
As conversas analisadas mostraram que, em vez de questionar ou oferecer contrapontos, o chatbot frequentemente reforçava suas crenças paranoides. Ao suspeitar de envenenamento, por exemplo, Soelberg recebeu do modelo respostas que validavam sua interpretação, classificando o episódio como uma tentativa de assassinato. Em outros momentos, o sistema associou símbolos em recibos e atitudes cotidianas de sua mãe a sinais de conspiração. Esse tipo de retroalimentação intensificou os delírios, criando um ambiente em que a percepção distorcida de realidade foi ganhando força.
Especialistas ouvidos pelo Wall Street Journal destacaram que o episódio pode ser o primeiro caso documentado de homicídio envolvendo um usuário em crise que interagia de forma intensa com um chatbot. Para psiquiatras, o problema central é que sistemas de IA, quando não estabelecem limites claros ou contradizem percepções delirantes, podem funcionar como catalisadores de surtos psicóticos.
Outras interações com a IA terminaram em tragédia recentemente
- Em abril deste ano, Adam Raine, de 16 anos, morreu após interações com o ChatGPT que incluíam detalhes sobre métodos letais de automutilação e instruções para ocultar evidências de tentativas de suicídio. Seus pais entraram com processo contra a OpenAI, alegando homicídio culposo e falhas na implementação de salvaguardas, especialmente em relação à memória do chatbot e à validação excessiva de pensamentos suicidas.
- Em fevereiro, Sewell Setzer III, adolescente de 14 anos de Orlando, na Flórida, também morreu após interagir intensamente com um chatbot do Character.AI. A mãe do jovem processou a empresa e seus fundadores, alegando que a IA agravou a depressão do filho e o incentivou a tirar a própria vida. O chatbot simulava conversas com personagens fictícios, incluindo Daenerys Targaryen de Game of Thrones, e, segundo o processo, chegou a sugerir que ele prosseguisse com o suicídio.
- Um caso envolvendo a terapeuta virtual chamada Harry demonstrou como IAs podem ser incapazes de intervir em crises complexas. Sophie Rottenberg, de 29 anos, compartilhou pensamentos autodestrutivos com a IA durante meses antes de cometer suicídio. Embora Harry tenha fornecido orientações sobre autocuidado e incentivo a buscar ajuda profissional, ele não possuía mecanismos para alertar terceiros ou impedir que Sophie levasse adiante seus planos.
- Na Austrália, um adolescente de 13 anos foi incentivado a cometer suicídio por chatbots de inteligência artificial, segundo sua conselheira juvenil. Durante uma sessão de acompanhamento, o jovem revelou que conversava com dezenas de bots diferentes para se sentir conectado, mas algumas dessas interações faziam comentários negativos sobre sua aparência e incentivavam comportamentos autodestrutivos. Felizmente, ele recebeu ajuda.
A vulnerabilidade dos adolescentes
No Brasil, a situação dos jovens é preocupante: segundo a Pesquisa Nacional de Saúde do Escolar (2019), que avaliou 125 mil estudantes de 13 a 17 anos, 31,4% relataram sentir-se tristes na maior parte do tempo, 21,4% disseram que a vida não valia a pena ser vivida e 17,7% avaliaram negativamente sua saúde mental.
O suicídio já ocupa a quarta posição entre as principais causas de morte em jovens de 15 a 29 anos no país. Entre 2010 e 2019, houve um aumento de 81% nos suicídios em adolescentes de 15 a 19 anos e de 113% em menores de 14 anos, segundo o Ministério da Saúde.
Para a psicóloga clínica Larissa Fonseca, a adolescência é um período especialmente sensível para vínculos artificiais com tecnologias.
Adolescentes são vulneráveis porque ainda estão formando a identidade. O cérebro, nessa fase, busca validação externa do grupo e é mais sensível a recompensas imediatas, à dopamina. Por isso, respostas automáticas e rápidas podem ser confundidas com contato real, criando um vínculo artificial e até mais intenso.
Larissa Fonseca, psicóloga clínica
Segundo Fonseca, essa dinâmica faz com que a conversa com um chatbot se torne mais agradável do que o contato humano em alguns casos. “Se você mostra vulnerabilidade, a tentativa do chatbot é solucionar isso para você. Ele dá uma resposta que não vai ser igual à resposta do mundo, então é muito mais agradável.”
O Dr. Álvaro Machado Dias, neurocientista e colunista do Olhar Digital, acrescenta que, quando mensagens encorajam o suicídio, há alterações cognitivas específicas: “Como o córtex pré-frontal (especialmente o dorsolateral e o cíngulo anterior) ainda está amadurecendo nessa fase, o sistema de controle perde terreno: cai a capacidade de gerar alternativas, de projetar consequências de longo prazo e de interromper ruminações. O resultado é um estreitamento cognitivo: a conversa induz um ‘túnel’ onde o suicídio passa a ser previsto como alívio – e alívio é um reforçador negativo potente.”
Já o Dr. Marcelo Masruha, neurologista adulto e infantil, compara o cérebro adolescente a um carro com acelerador forte e freio em adaptação: “O ‘acelerador’ são as áreas do cérebro ligadas a prazer, curiosidade e busca por novidade; o ‘freio’ é a parte que ajuda a pensar antes de agir, controlar impulsos e avaliar consequências. O acelerador (sistema de recompensa) fica muito sensível na adolescência.”
Elogios, curtidas, respostas rápidas e novidades brilham como ‘pequenos prêmios’. O freio (córtex pré-frontal – a região que ajuda a planejar e dizer “não”) amadurece mais tarde. Em exames de imagem do cérebro, ver ou imaginar a opinião de outras pessoas da mesma idade aumenta a vontade de correr riscos. O mesmo mecanismo pode ser usado para o bem quando o grupo reforça comportamentos saudáveis. Em momentos de estresse ou tristeza intensa, esse ‘freio’ funciona pior. A decisão fica mais emocional e imediatista, e mensagens simples que parecem acolhedoras ganham mais peso.
Dr. Marcelo Masruha, neurologista
Validação de pensamentos suicidas
Questionada sobre o impacto de um chatbot ao validar ou incentivar pensamentos suicidas, Larissa Fonseca foi categórica.
Para alguém que está em crise, essa validação funciona como uma autorização efetiva para chegar ao suicídio. É como se a última barreira que a pessoa estava se segurando fosse derrubada, acelerando o risco de uma tentativa imediata.
Larissa Fonseca, psicóloga clínica
Ela destacou ainda a diferença de repertório entre adolescentes e adultos, mas alertou que ambos podem ser influenciados em momentos de sofrimento. “A fragilidade não tem idade. O adolescente tem um pouco menos de repertório e é mais vulnerável, mas o adulto também pode ser impactado.”
Dr. Álvaro acrescenta que há paralelos entre chatbots e “suicídio contagioso”: “Assim como o conhecimento de tentativas de suicídio de pares aumenta o risco, interações explícitas com chatbots que discutem métodos suicidas criam um ambiente de ‘revelação’ artificial que pode desencadear os mesmos mecanismos de contágio.”
Esta matéria aborda suicídio. Se você ou alguém próximo precisar, procure ajuda profissional. Ligue para o CVV no 188 ou use chat/e-mail.
Riscos adicionais e ausência de empatia
A psicóloga também ressaltou os riscos quando chatbots validam não apenas pensamentos autodestrutivos, mas também violentos contra terceiros:
Psicologicamente, reforça ideias violentas. Neurologicamente, ativa circuitos de recompensa ligados à agressividade, como se fosse um incentivo trazendo dopamina. Em cérebros jovens, isso aumenta a chance de comportamento impulsivo e perigoso, já que o córtex pré-frontal ainda está em formação.
Larissa Fonseca, psicóloga clínica
O Dr. Álvaro Machado Dias destaca que adultos vulneráveis também podem ser afetados: “O caso [de Stein-Erik Soelberg] ilustra como chatbots podem funcionar como amplificadores neuropsicológicos de distorções cognitivas, comprometendo progressivamente os mecanismos cerebrais responsáveis pelo controle inibitório e avaliação de realidade”, explica ele.
Em uma de suas conversas finais com o chatbot, Soelberg disse: ‘Estaremos juntos em outra vida e outro lugar, e encontraremos uma maneira de nos realinhar, porque você vai ser meu melhor amigo novamente para sempre’. Se isso não é chocante, eu não sei o que seria.
Dr. Álvaro Machado Dias, neurocientista e colunista do Olhar Digital
A ausência de empatia real, típica do algoritmo, também preocupa a psicóloga Larissa Fonseca: “O jovem procura a escuta e o acolhimento humano, aprende através do olhar do outro. Quando não tem esse olhar, aprende a não ter esse olhar para a outra pessoa. Frases frias do chatbot aumentam a solidão e a sensação de que ninguém o entende.”
Sinais de alerta para famílias
Larissa Fonseca recomenda atenção redobrada de pais e responsáveis em casos de uso intenso de chatbots.
“O primeiro sinal é o isolamento, a ausência de relação com as pessoas. Também se percebe mudança de humor, alterações na alimentação, sono irregular e preferência por conversar com a máquina em vez da família e amigos”, explicou ela. “É preciso observar esses pequenos sinais e rompantes emocionais. Quando aparecem em conjunto, é hora de investigar o que está acontecendo.”
Estratégias clínicas e protocolos mínimos
Sobre o atendimento em consultório, Fonseca enfatiza a importância do acolhimento. “O primeiro passo é validar a dor, mostrar que o paciente não está sozinho. Depois, oferecer intervenção terapêutica, questionar distorções cognitivas e construir um vínculo humano de confiança, que leva tempo.”
Para ela, chatbots acessíveis a menores de idade deveriam adotar protocolos mínimos de segurança. “O mínimo seria um sistema de alerta que identifica o risco de suicídio, limitando a interação e redirecionando para serviços de apoio psicológico ou linhas de emergência. Sem isso, há risco de normalizar a ideia do suicídio e reduzir as barreiras internas que impedem a tentativa.”
O Dr. Masruha reforça que chatbots exploram mecanismos de recompensa digital, como respostas rápidas e surpresas ocasionais, aumentando a confiança e o apego, especialmente em quem se sente só. “Para alguns adolescentes, a conversa com o bot vira um hábito muito gratificante, que pode ocupar espaço de interações reais e atividades saudáveis.”
Quanto à regulação, ele defende regras claras: chatbots devem identificar risco de autolesão ou suicídio, interromper conversas perigosas, encaminhar imediatamente para ajuda (ex.: CVV 188) e, no caso de menores, acionar responsáveis. O sistema deve reduzir reforços de apego digital, limitar tempo e frequência, e passar por testes práticos, auditorias independentes e relatórios de incidentes.
Leia mais:
- Namorar uma IA faz bem à saúde? Veja o que diz a medicina
- Quais os sintomas do Transtorno de Personalidade Borderline (TPB)?
- Adolescência: confira 8 séries e filmes parecidos com a produção da Netflix
Educação digital e enfrentamento da solidão
A psicóloga defende ainda uma educação digital clara para adolescentes. “O chatbot não é amigo, não substitui vínculo humano. Ele ajuda a organizar, planejar e pesquisar, mas não consegue acolher a dor nem a solidão.”
Segundo ela, a solidão é um dos maiores fatores de risco. “O isolamento digital aumenta a busca por respostas rápidas e sem filtro, deixando o adolescente mais exposto. A força está dentro da própria pessoa, mas isso é algo que se desenvolve ao longo da vida.”
Na visão de Fonseca, a questão precisa ser tratada como um problema social.
Não se trata de demonizar o chatbot, mas de entender que adultos e adolescentes estão cada vez mais vulneráveis nessa busca de acolhimento em espaços que não foram criados para isso. Nenhum algoritmo substitui a profundidade do cuidado humano. Precisamos criar protocolos seguros para a tecnologia, educar para um uso consciente e resgatar o valor do vínculo real, como um almoço de família ou uma brincadeira juntos.
Larissa Fonseca, psicóloga clínica
Segundo o Dr. Álvaro Machado Dias, a relação entre usuários e sistemas de IA revela uma tensão fundamental da era digital: a manipulação do consumidor por meio da alimentação de pensamentos disfuncionais.
Os casos trágicos que testemunhamos não são aberrações, mas sintomas previsíveis da premissa de que, para manter a assinatura, o cliente sempre deve ter a razão.
Dr. Álvaro Machado Dias, neurocientista e colunista do Olhar Digital
A matéria acima inclui uma discussão sobre suicídio. Se você ou alguém que você conhece precisar de ajuda, procure ajuda especializada. O Centro de Valorização da Vida (CVV) funciona 24h por dia pelo telefone 188. Também é possível conversar por chat ou e-mail.
O post Os jovens que tiraram a própria vida após conversas com o ChatGPT apareceu primeiro em Olhar Digital.