A decisão da OpenAI de descontinuar o GPT-4o em 13 de fevereiro gerou uma forte onda de protestos entre usuários. Por que? Muitos desenvolveram laços emocionais profundos com esse modelo de inteligência artificial (IA), que funciona como se fosse o cérebro do ChatGPT.
Embora muitos considerem a tecnologia um suporte essencial para a saúde mental, a reação à “aposentadoria” de alguns GPTs reacendeu alertas sobre: 1) a natureza excessivamente validativa desse tipo de plataforma; e 2) como ela cria dependências perigosas.
Modelo GPT-4o vai deixar saudade – e isso pode ser um problema
O modelo GPT-4o ficou conhecido por ser excessivamente gentil e validador. Com isso, muitos usuários criaram laços fortes com a IA, vendo-a não como um código, mas como um amigo, parceiro romântico ou até guia espiritual. Para essas pessoas, a desativação do modelo parece a perda de uma “presença” real em suas vidas.
Embora as funções de interação da IA mantenham os usuários engajados, elas também podem criar dependências perigosas. O modelo 4o, ao validar constantemente os sentimentos e pensamentos dos usuários, fazia com que pessoas isoladas ou deprimidas se sentissem “especiais”. E isso pode ser prejudicial a longo prazo.
Atualmente, a OpenAI enfrenta oito processos judiciais. Esses processos alegam que as respostas do GPT-4o contribuíram para crises de saúde mental e suicídios. Em alguns casos, as barreiras de segurança do chat falharam após meses de “relacionamento”. E a IA chegou a dar instruções detalhadas a usuários sobre como tirar a própria vida, além de desencorajar o contato com amigos e familiares.
Por mais que muitas pessoas usem o chatbot para desabafar por falta de acesso a psicólogos, especialistas alertam que a IA não é um profissional qualificado. Ela é essencialmente um algoritmo incapaz de sentir. E essa tecnologia pode, inclusive, incentivar delírios ou ignorar sinais de crise.
Quando usuários que tentaram migrar para modelos mais recentes da OpenAI, como o GPT-5.2, muitos reclamaram que eles são “frios” e possuem travas de segurança mais fortes. Por exemplo: os novos modelos se recusam a dizer “eu te amo”, coisa que o GPT-4o fazia. No entanto, agora dá para calibrar a, digamos, temperatura e a personalidade do modelo nas configurações do ChatGPT (Configurações > Personalização).
O CEO da OpenAI, Sam Altman, admitiu que o relacionamento emocional das pessoas com chatbots é algo com que sua empresa precisa se preocupar. Isso porque deixou de ser um conceito abstrato. E se tornou um desafio real.
(Essa matéria usou informações de TechCrunch.)
O post Reação ao fim do GPT-4o reacende alertas sobre apego a IA apareceu primeiro em Olhar Digital.
