O CEO da OpenAI e acionista do Reddit, Sam Altman, disse ter percebido como está cada vez mais difícil distinguir postagens reais de mensagens escritas por bots.
A reflexão surgiu após ele ler o subreddit r/Claudecode, onde diversos usuários exaltavam o OpenAI Codex — tantos que Altman desconfiou de que parte dos elogios pudesse ser artificial.

Leia mais:
- Como criar seu “próprio” ChatGPT; veja passo a passo
- Busca profunda no ChatGPT: o que é, como funciona, e como usar
- Stargate: OpenAI e Oracle investem em megaprojeto de data centers
Um humano ou um robô publicou? Difícil distinguir
- Em publicação no X, Altman afirmou que a mistura de comportamentos de usuários muito ativos, linguagem parecida com a de LLMs (modelos de linguagem) e incentivos das plataformas para maximizar engajamento tornam o ambiente das redes “estranhamente falso”.
- Altman lembrou ainda que empresas recorrem ao astroturfing — postagens falsas de apoio ou ataque financiadas indiretamente.
- Ele admite, no entanto, que a tendência dos posts de bots financiados já ocorreu com a própria OpenAI.

GPT-5 contribui para o cenário
A discussão ganhou força após o lançamento do GPT-5, que gerou críticas intensas em subreddits da empresa. Segundo Altman, o resultado líquido é que hoje Twitter e Reddit parecem muito menos autênticos do que há poucos anos.
Estudos apontam que mais da metade do tráfego da internet em 2024 já é de origem não humana, reforçando o cenário descrito por Altman. Céticos, porém, levantaram a hipótese de que suas declarações possam preparar terreno para uma possível rede social da OpenAI — ainda não confirmada.

O post Sam Altman diz que está difícil diferenciar pessoas de robôs nas redes apareceu primeiro em Olhar Digital.