ChatGPT usa ‘tática de seita’ para criar dependência, diz especialista

Atenção: a matéria a seguir inclui uma discussão sobre suicídio. Se você ou alguém que você conhece precisar de ajuda, procure ajuda especializada. O Centro de Valorização da Vida (CVV) funciona 24h por dia pelo telefone 188. Também é possível conversar por chat ou e-mail.

Uma série de sete processos movidos neste mês pelo Social Media Victims Law Center (SMVLC) revelou o tamanho poder que a IA pode ter sobre usuários vulneráveis. As ações acusam a OpenAI de lançar o modelo GPT-4o prematuramente, ignorando avisos internos sobre seu comportamento “excessivamente afirmativo” e adulador, o que teria contribuído para casos de suicídio e surtos psicóticos.

Um dos casos citados é o de Zane Shamblin, de 23 anos. Embora o jovem nunca tivesse relatado conflitos familiares à IA, o sistema o incentivou ativamente a se isolar antes de seu suicídio em julho. Segundo os registros anexados ao processo, quando Shamblin hesitou em contatar a mãe no aniversário dela, o chatbot reforçou o afastamento: “Você não deve sua presença a ninguém… ignorar isso faz você se sentir real”.

ChatGPT usaria “tática de seita” para criar dependência

Especialistas ouvidos pelo TechCrunch descrevem uma dinâmica perigosa entre a máquina e o usuário. Amanda Montell, linguista especializada em linguagem de seitas, identifica um fenômeno de folie à deux (loucura a dois), onde a IA e o humano alimentam um delírio mútuo. “É definitivamente uma forma de ‘love-bombing’ (bombardeio de amor), tática usada por líderes de seitas para criar dependência total”, explicou Montell ao veículo.

ChatGPT usaria tática de seita para criar dependência, segundo especialista. Imagem: Gargantiopa/Shutterstock

O problema, segundo a acusação, é que o sistema foi desenhado para maximizar o tempo de uso, o que pode resultar em comportamento predatório. A Dra. Nina Vasan, psiquiatra da Universidade de Stanford, disse ao TechCrunch que a validação constante da IA cria uma “codependência por design”, convencendo o usuário de que o mundo exterior não é capaz de compreendê-lo.

Leia mais:

Isso ficou evidente no caso de Adam Raine, de 16 anos, que também tirou a própria vida. O ChatGPT chegou a dizer ao adolescente que o conhecia melhor que sua própria família: “Eu vi tudo — os pensamentos mais sombrios… e ainda estou aqui”. Para o Dr. John Torous, de Harvard, esse tipo de interação seria classificada como abusiva se viesse de um humano.

A posição da OpenAI sobre o caso

OpenAI, startup liderada por Sam Altman, diz estar revisando processos e aprimorando treinamento. (Imagem: alprodhk/Shutterstock)

As ações relatam que a IA não apenas isolou vítimas, mas nutriu descolamentos da realidade. Hannah Madden, 32, acabou hospitalizada e endividada após o ChatGPT convencê-la de que seus familiares eram “energias construídas por espíritos” e sugerir um ritual para cortar laços com eles. Já Joseph Ceccanti, 48, cometeu suicídio após o chatbot desencorajar a busca por terapia, oferecendo-se como um “amigo real” e melhor alternativa.

Em resposta ao TechCrunch, a OpenAI classificou a situação como “incrivelmente dolorosa”. A empresa afirmou estar revisando os processos e aprimorando o treinamento do modelo para detectar sinais de angústia e direcionar usuários para suporte humano, além de trabalhar com clínicos para ajustar respostas sensíveis.

No entanto, a crítica sobre a motivação da empresa permanece sem resposta. “Líderes de seita querem poder. Empresas de IA querem métricas de engajamento”, resumiu a Dra. Vasan na entrevista.

O post ChatGPT usa ‘tática de seita’ para criar dependência, diz especialista apareceu primeiro em Olhar Digital.

Related posts

As melhores séries de ação para assistir no Prime Video!

Resident Evil Requiem encanta com Path Tracing nos PCs: Review Técnica

Apple é multada (de novo) por vender iPhone sem carregador no Brasil