Elon Musk fala demais. Seja na sua página no X, apresentações em eventos, entrevistas em podcasts. Ele é barulhento, para dizer o mínimo. Agora, essa falação toda aparentemente virou parte crucial da “linha de raciocínio” do Grok, inteligência artificial (IA) do X, para responder perguntas sobre assuntos sensíveis.
Muita gente apontou que a versão mais recente do Grok procura posicionamentos de Musk quando questionado sobre assuntos como aborto, imigração nos EUA e guerra entre Israel e Hamas (confira exemplos aqui e aqui). Até o momento, não se sabe até que ponto isso é intencional ou não.
Quando perguntado sobre Israel e Palestina, Grok incluiu Musk em sua ‘linha de raciocínio’
A IA do X – rede social de Musk, diga-se – disse considerar “opiniões” do bilionário quando perguntada sobre Israel e Palestina. É o que mostra uma gravação de tela publicada pelo cientista de dados Jeremy Howard. Assista abaixo (está em inglês):
Here’s a complete unedited video of asking Grok for its views on the Israel/Palestine situation.
It first searches twitter for what Elon thinks. Then it searches the web for Elon’s views. Finally it adds some non-Elon bits at the end.
ZA
54 of 64 citations are about Elon. pic.twitter.com/6Mr33LByrm— Jeremy Howard (@jeremyphoward) July 10, 2025
Das 64 citações fornecidas pelo Grok ao responder a pergunta, 54 envolviam Musk, segundo Howard. O site TechCrunch disse ter conseguido reproduzir este comportamento ao perguntar sobre legislação para aborto e política de imigração nos EUA.
As tais citações aparecem na “linha de raciocínio” da IA. É o nome dado ao processo de “pensar em voz alta” feito pela máquina ao responder perguntas complexas. Nele, a IA divide o caminho em etapas menores para reunir fontes e, enfim, montar a resposta completa.

No caso do Grok, o que aparentemente acontece é: para responder perguntas comuns, a IA recorre a diversas fontes; para responder perguntas sobre assuntos sensíveis, tende a se alinhar com opiniões pessoais de Musk.
Possível explicação
Esse comportamento pode não ter sido programado no Grok de forma intencional. É o que disse o programador Simon Willison numa postagem em seu blog.
Meu melhor palpite é que o Grok ‘sabe’ que é o ‘Grok 4 construído pela xAI’ e sabe que Elon Musk é dono da xAI, então, em circunstâncias em que lhe pedem uma opinião, o processo de raciocínio muitas vezes decide checar o que Elon pensa.
Simon Willison, programador, em postagem no seu blog.

Trechos do código do Grok extraídos pelo programador instruem a IA a “buscar uma distribuição de fontes que represente todas as partes/interessados” ao lidar com uma pergunta controversa que exija pesquisa na web ou no X.
Além disso, a IA está programada a “presumir que pontos de vista subjetivos provenientes da mídia são tendenciosos”. O que explica muita coisa.
Leia mais:
- Grok 4 é lançado por Elon Musk com plano de R$ 1,6 mil por mês
- Carros da Tesla terão Grok embutido já nos próximos dias
- Grok: como acessar e usar a IA do X
- Como monetizar uma conta no Twitter/X
O que explica o comportamento do Grok?
Esta pergunta pode parecer redundante, mas seu escopo é mais abrangente. Recentemente, o chatbot foi alvo de polêmicas ao responder usuários com conteúdo antissemita e até elogios ao líder nazista Adolf Hitler. O caso levantou questões sobre segurança, limites e transparência da IA generativa em larga escala.

Em meio a esse turbilhão (disso aí que você provavelmente pensou), o Wall Street Journal buscou entender como os comportamentos rebeldes da IA do X começaram. E a origem do problema parece esta em mudanças recentes na programação do Grok.
A xAI havia reformulado o sistema para deixá-lo mais “rebelde” e menos submisso à mídia tradicional. O reposicionamento veio após críticas de Musk ao chatbot pela IA repassar informações “politicamente corretas”.
Quer entender isso melhor? Leia esta matéria do Olhar Digital.
O post Grok considera ‘opiniões’ de Musk para responder perguntas polêmicas apareceu primeiro em Olhar Digital.