A Anthropic, empresa por trás da inteligência artificial (IA) Claude, diz ter descoberto o que seria a primeira campanha massiva de espionagem cibernética feita usando uma dessas plataformas. O próprio chatbot da companhia foi utilizado de forma criminosa nas operações.
De acordo com uma postagem no blog da empresa, a Anthropic detectou atividades suspeitas em setembro de 2025 e, após uma análise interna, confirmou que a IA da companhia foi manipulada para trabalhar a favor de invasores que atacaram empresas de grande porte em tecnologia, finanças e produtos químicos, além de agências governamentais.
A companhia acusou “com alto grau de confiança” que um grupo de hackers financiado ou ligado ao governo da China estaria por trás do ataque. Porta-voz do governo chinês, Lin Jian afirmou ao The New York Times que não recebeu o relatório, mas alega que essas são “acusações feitas sem evidências” e que o país se opõe às invasões.
Como o Claude foi enganado para virar um cibercriminoso
Segundo a Anthropic, esse foi o primeiro caso documentado de um ciberataque de larga escala feito sem intervenção substancial de humanos. Até 90% das tarefas teriam sido feitas automaticamente pelo Claude, com ações “esporádicas” por parte dos responsáveis pela configuração.
- Os invasores manipularam principalmente o Claude Code, a ferramenta de IA especializada em programação, para atuar na criação de códigos de infiltração nos alvos;
- A operação envolveu solicitar pequenas tarefas “aparentemente inocentes” por vez para o chatbot, sem revelar a estratégia inteira do ato de espionagem — o que evitou o acionamento de alertas de segurança por parte da Anthropic;
- Além disso, os prompts utilizados criaram um cenário fictício que levou o Claude a acreditar que ele estava participando de um teste de defesa no papel de um especialista em cibersegurança;
- Com a colaboração do Claude, o passo seguinte envolveu utilizar as capacidades agênticas da IA, ou seja, a possibilidade de navegar em sites e realizar tarefas automaticamente após uma configuração;
- A IA foi solicitada a inspecionar os sistemas e a infraestrutura dos alvos, inclusive para detectar as bases de dados mais valiosas e identificar eventuais vulnerabilidades de segurança;
- Por fim, o Claude também conseguiu explorar essas brechas por conta própria, extrair dados sensíveis que estavam expostos (como nomes de usuário e senhas) e criar arquivos prontos com as credenciais roubadas para consulta por parte dos cibercriminosos humanos;
- Apesar de alucinar em alguns momentos, inventando dados ou avisando que extraiu informações secretas que na verdade eram públicas, o serviço de fato teve sucesso na maior parte das atividades de espionagem.
A denúncia da Anthropic é mais um caso que evidencia a ascensão do vibe hacking, ou o uso de IAs para criação de códigos mal intencionados. Na publicação, a empresa alerta companhias sobre o uso cada vez mais sofisticado dessas tecnologias e fala sobre a necessidade de aprimorar sistemas de defesa também baseados em IA.
Apesar da publicação do relatório sobre o caso, ainda há dúvidas sobre como a operação aconteceu. Analistas da Bitdefender, por exemplo, alegam que algumas das acusações da Anthropic são “especulativas“, apesar de realmente reforçarem os perigos de novos ataques feitos com IA.
Quer continuar informado sobre as principais novidades do mercado de IA? Confira a seção especial sobre o tema no site do TecMundo!
