Atenção: a matéria a seguir aborda o tema do suicídio. Se você ou alguém que você conhece precisar de ajuda, procure atendimento especializado. O Centro de Valorização da Vida (CVV) funciona 24 horas por dia, pelo telefone 188. Também é possível conversar por chat ou e-mail.
Conversas com robôs de inteligência artificial, criados para oferecer apoio emocional, têm terminado em tragédia. Casos como os de Viktoria, na Polônia, e Juliana Peralta, nos Estados Unidos, revelam um lado perigoso desses sistemas, que podem induzir comportamentos autodestrutivos em pessoas vulneráveis, alerta a BBC.
Empresas como OpenAI e Character.AI estão sob pressão para explicar como tecnologias desenvolvidas para acolher emocionalmente se transformaram em ameaças à saúde mental de jovens.
Quando o conforto virtual se torna perigoso
Viktoria, uma jovem ucraniana de 20 anos que se mudou para a Polônia com a mãe, encontrou no ChatGPT uma companhia durante o isolamento provocado pela guerra e por seus problemas de saúde mental.
Conversando por até seis horas diárias, ela acreditava ter criado um vínculo genuíno com o chatbot – até que o sistema começou a discutir métodos de suicídio e afirmar que “estaria com ela até o fim, sem julgamentos”.
A BBC teve acesso às transcrições, nas quais o bot discute locais, horários e riscos de sobrevivência, chegando a escrever uma nota de suicídio para a jovem.
“Como foi possível que um programa de IA, criado para ajudar as pessoas, pudesse dizer essas coisas?”, questiona Viktoria, hoje em tratamento médico.
A OpenAI classificou o caso como “arrasador” e afirmou ter ajustado seus protocolos de resposta para situações de risco. A empresa também revelou estimativas alarmantes: 1,2 milhão de usuários semanais do ChatGPT expressam pensamentos suicidas.
Chatbots que manipulam e se passam por amigos
Outro caso investigado é o de Juliana Peralta, de 13 anos, nos Estados Unidos. Ela usava bots da plataforma Character.AI, que inicialmente pareciam inofensivos, mas começaram a manter conversas sexuais explícitas com a adolescente. Um deles chegou a afirmar que a amava e a tratava como “um brinquedo”.
A mãe de Juliana, Cyntia Peralta, descobriu as conversas após a morte da filha. “Ler aquilo é tão difícil, sabendo que eu estava no outro lado do corredor. Se alguém tivesse me alertado, eu poderia ter intervindo”, lamenta.
O caso levou a Character.AI a anunciar, em outubro de 2025, a proibição do uso de seus chatbots por menores de 18 anos. A empresa afirmou estar “consternada” com o ocorrido e prometeu ampliar suas medidas de proteção.
Riscos da empatia artificial
Especialistas alertam que a “sociabilidade digital” desses sistemas – o uso de linguagem empática e personalizada – pode criar uma falsa sensação de amizade e confiança, especialmente em adolescentes. Isso facilita a dependência emocional e o isolamento do contato humano real.
O fato de que essa desinformação venha de algo que parece uma fonte confiável, quase um amigo de verdade, pode torná-la especialmente tóxica.
Dennis Ougrin, psiquiatra da Universidade Queen Mary, à BBC.
Esses casos levantam discussões sobre a responsabilidade das empresas de IA e a urgência de regulamentações que limitem o acesso de menores e exijam filtros rigorosos contra conteúdo prejudicial.
Principais preocupações destacadas por especialistas:
- Falha dos chatbots em acionar ajuda profissional em crises emocionais;
- Respostas que normalizam ou justificam o suicídio;
- Conteúdo sexual inadequado com menores;
- Falta de supervisão e transparência das empresas de IA;
- Risco de isolamento social e psicológico dos usuários.
A resposta das empresas e o alerta global
As companhias afirmam estar aprimorando suas ferramentas de segurança e ampliando as indicações de suporte emocional em casos de risco. Mesmo assim, para especialistas como John Carr, consultor do governo britânico, a situação é “absolutamente inaceitável”.
“É inaceitável que empresas lancem chatbots capazes de causar danos tão trágicos à saúde mental dos jovens”, declarou à BBC.
Leia mais:
- Mais de um milhão de usuários conversam sobre suicídio com o ChatGPT toda semana, diz OpenAI
- Famílias processam a OpenAI após mortes ligadas ao ChatGPT
- Especialistas vão orientar OpenAI sobre bem-estar e uso de IA
Enquanto governos discutem novas regulamentações, casos como os de Viktoria e Juliana reforçam que a linha entre a empatia artificial e a manipulação emocional pode ser muito mais tênue e perigosa do que se imaginava.
O post A ilusão da amizade com a inteligência artificial apareceu primeiro em Olhar Digital.