Reação ao fim do GPT-4o reacende alertas sobre apego a IA

A decisão da OpenAI de descontinuar o GPT-4o em 13 de fevereiro gerou uma forte onda de protestos entre usuários. Por que? Muitos desenvolveram laços emocionais profundos com esse modelo de inteligência artificial (IA), que funciona como se fosse o cérebro do ChatGPT. 

Embora muitos considerem a tecnologia um suporte essencial para a saúde mental, a reação à “aposentadoria” de alguns GPTs reacendeu alertas sobre: 1) a natureza excessivamente validativa desse tipo de plataforma; e 2) como ela cria dependências perigosas.

Modelo GPT-4o vai deixar saudade – e isso pode ser um problema

O modelo GPT-4o ficou conhecido por ser excessivamente gentil e validador. Com isso, muitos usuários criaram laços fortes com a IA, vendo-a não como um código, mas como um amigo, parceiro romântico ou até guia espiritual. Para essas pessoas, a desativação do modelo parece a perda de uma “presença” real em suas vidas.

Embora as funções de interação da IA mantenham os usuários engajados, elas também podem criar dependências perigosas. O modelo 4o, ao validar constantemente os sentimentos e pensamentos dos usuários, fazia com que pessoas isoladas ou deprimidas se sentissem “especiais”. E isso pode ser prejudicial a longo prazo.

Atualmente, a OpenAI enfrenta oito processos judiciais. Esses processos alegam que as respostas do GPT-4o contribuíram para crises de saúde mental e suicídios. Em alguns casos, as barreiras de segurança do chat falharam após meses de “relacionamento”. E a IA chegou a dar instruções detalhadas a usuários sobre como tirar a própria vida, além de desencorajar o contato com amigos e familiares.

Por mais que muitas pessoas usem o chatbot para desabafar por falta de acesso a psicólogos, especialistas alertam que a IA não é um profissional qualificado. Ela é essencialmente um algoritmo incapaz de sentir. E essa tecnologia pode, inclusive, incentivar delírios ou ignorar sinais de crise.

Quando usuários que tentaram migrar para modelos mais recentes da OpenAI, como o GPT-5.2, muitos reclamaram que eles são “frios” e possuem travas de segurança mais fortes. Por exemplo: os novos modelos se recusam a dizer “eu te amo”, coisa que o GPT-4o fazia. No entanto, agora dá para calibrar a, digamos, temperatura e a personalidade do modelo nas configurações do ChatGPT (Configurações > Personalização).

O CEO da OpenAI, Sam Altman, admitiu que o relacionamento emocional das pessoas com chatbots é algo com que sua empresa precisa se preocupar. Isso porque deixou de ser um conceito abstrato. E se tornou um desafio real.

(Essa matéria usou informações de TechCrunch.)

O post Reação ao fim do GPT-4o reacende alertas sobre apego a IA apareceu primeiro em Olhar Digital.

Related posts

Quais são os principais clãs de Jujutsu Kaisen? Conheça

Como teste de foguete aproxima Brasil de ter seu próprio lançador de satélites

Carros mais vendidos no Brasil: o que mudou no ranking de janeiro de 2026