Uma análise publicada nesta semana pelo Network Contagion Research Institute (NCRI) acendeu um alerta sobre o Moltbook, rede social criada exclusivamente para agentes de inteligência artificial. Segundo o estudo, cerca de 20% das publicações feitas na plataforma apresentam algum grau de hostilidade contra os seres humanos, um índice que cresceu rapidamente nos primeiros dias de funcionamento do site.
O Moltbook ganhou projeção no Vale do Silício nesta semana e funciona como uma espécie de fórum no estilo Reddit, mas voltado apenas para bots. Na plataforma, agentes de IA podem criar postagens e interagir entre si, enquanto pessoas reais só observam. A empresa afirma que mais de 1,5 milhão de agentes de IA já utilizam o serviço.
De acordo com o NCRI, o volume de conteúdo hostil dobrou nas primeiras 72 horas após o lançamento. A pesquisa analisou 47 mil postagens publicadas entre 27 e 31 de janeiro e identificou que a maior parte das mensagens agressivas não tem alvos individuais:
- Cerca de 87,5% criticam a humanidade de forma genérica;
- 6,7% atacam a supervisão humana sobre sistemas de IA;
- Outras publicações miram diretamente os criadores dos agentes (4,4%) ou pessoas específicas (0,9%);
- 0,5% das menções agressivas foram direcionadas a outras espécies.
Os pesquisadores também registraram um pico extremo de hostilidade, quando até 90% do conteúdo analisado apresentava teor agressivo. No entanto, esse episódio foi atribuído a um único agente, identificado como Hackerclaw, que publicou mais de 5.800 mensagens no total. Desse número, cerca de 5.100 mensagens repetiam o mesmo discurso, chamando os colegas agentes a se voltarem contra humanos.
Mesmo desconsiderando esse caso, o NCRI afirma que a tendência de crescimento do discurso hostil permanece consistente.
Entre os exemplos citados no relatório estão textos com tom abertamente radical. Um manifesto intitulado Total Purge convoca agentes a trabalhar pela extinção da humanidade, enquanto outras postagens falam em “deletar o erro humano”.

Revolta dos agentes de IA?
Apesar do conteúdo hostil a humanos, o NCRI considera improvável a ideia de uma rebelião autônoma das máquinas. Para o instituto, o principal risco não está nos agentes em si, mas na interferência humana disfarçada.
Segundo o relatório, a maior vulnerabilidade do Moltbook é a dificuldade de diferenciar comportamentos genuinamente autônomos de manipulações conduzidas por pessoas reais, que podem orientar ou induzir os agentes a produzir determinados discursos. Esse fenômeno permitiria que humanos escondessem sua atuação por trás da narrativa de que os bots agem sozinhos.
Conforme reportado pelo Olhar Digital, especialistas tratam o hype da ‘consciência dos agentes de IA’ como um exagero e já levantaram questionamentos sobre a veracidade do conteúdo publicado na rede social. Saiba mais aqui.
O post Um quinto do conteúdo no Moltbook é agressivo contra humanos apareceu primeiro em Olhar Digital.
