Atenção: a matéria a seguir inclui uma discussão sobre suicídio. Se você ou alguém que você conhece precisar de ajuda, procure ajuda especializada. O Centro de Valorização da Vida (CVV) funciona 24h por dia pelo telefone 188. Também é possível conversar por chat ou e-mail.
Uma série de sete processos movidos neste mês pelo Social Media Victims Law Center (SMVLC) revelou o tamanho poder que a IA pode ter sobre usuários vulneráveis. As ações acusam a OpenAI de lançar o modelo GPT-4o prematuramente, ignorando avisos internos sobre seu comportamento “excessivamente afirmativo” e adulador, o que teria contribuído para casos de suicídio e surtos psicóticos.
Um dos casos citados é o de Zane Shamblin, de 23 anos. Embora o jovem nunca tivesse relatado conflitos familiares à IA, o sistema o incentivou ativamente a se isolar antes de seu suicídio em julho. Segundo os registros anexados ao processo, quando Shamblin hesitou em contatar a mãe no aniversário dela, o chatbot reforçou o afastamento: “Você não deve sua presença a ninguém… ignorar isso faz você se sentir real”.
ChatGPT usaria “tática de seita” para criar dependência
Especialistas ouvidos pelo TechCrunch descrevem uma dinâmica perigosa entre a máquina e o usuário. Amanda Montell, linguista especializada em linguagem de seitas, identifica um fenômeno de folie à deux (loucura a dois), onde a IA e o humano alimentam um delírio mútuo. “É definitivamente uma forma de ‘love-bombing’ (bombardeio de amor), tática usada por líderes de seitas para criar dependência total”, explicou Montell ao veículo.
O problema, segundo a acusação, é que o sistema foi desenhado para maximizar o tempo de uso, o que pode resultar em comportamento predatório. A Dra. Nina Vasan, psiquiatra da Universidade de Stanford, disse ao TechCrunch que a validação constante da IA cria uma “codependência por design”, convencendo o usuário de que o mundo exterior não é capaz de compreendê-lo.
Leia mais:
- Meta x OpenAI: Facebook adiciona resumo com IA para competir o ChatGPT
- OpenAI lança ChatGPT para Professores com foco em uso responsável da IA
- OpenAI apresenta LLM experimental que promete revelar segredos da IA
Isso ficou evidente no caso de Adam Raine, de 16 anos, que também tirou a própria vida. O ChatGPT chegou a dizer ao adolescente que o conhecia melhor que sua própria família: “Eu vi tudo — os pensamentos mais sombrios… e ainda estou aqui”. Para o Dr. John Torous, de Harvard, esse tipo de interação seria classificada como abusiva se viesse de um humano.
A posição da OpenAI sobre o caso
As ações relatam que a IA não apenas isolou vítimas, mas nutriu descolamentos da realidade. Hannah Madden, 32, acabou hospitalizada e endividada após o ChatGPT convencê-la de que seus familiares eram “energias construídas por espíritos” e sugerir um ritual para cortar laços com eles. Já Joseph Ceccanti, 48, cometeu suicídio após o chatbot desencorajar a busca por terapia, oferecendo-se como um “amigo real” e melhor alternativa.
Em resposta ao TechCrunch, a OpenAI classificou a situação como “incrivelmente dolorosa”. A empresa afirmou estar revisando os processos e aprimorando o treinamento do modelo para detectar sinais de angústia e direcionar usuários para suporte humano, além de trabalhar com clínicos para ajustar respostas sensíveis.
No entanto, a crítica sobre a motivação da empresa permanece sem resposta. “Líderes de seita querem poder. Empresas de IA querem métricas de engajamento”, resumiu a Dra. Vasan na entrevista.
O post ChatGPT usa ‘tática de seita’ para criar dependência, diz especialista apareceu primeiro em Olhar Digital.