O embate entre o governo do presidente estadunidense Donald Trump e a startup de inteligência artificial (IA) Anthropic se intensificou nos últimos dias, após o secretário de Defesa dos Estados Unidos, Pete Hegseth, dar um ultimato à empresa para liberar seu modelo de IA, o chatbot Claude, para uso militar irrestrito.
A companhia resiste a flexibilizar suas regras e afirma que não permitirá a aplicação da tecnologia em armas totalmente autônomas nem em vigilância doméstica em massa.
Segundo relatos divulgados pela Associated Press (AP) e por veículos, como o The Wall Street Journal, o governo deu prazo até esta sexta-feira (27) para que a empresa aceitasse os termos propostos pelo Pentágono.
Caso contrário, Hegseth ameaçou classificar a Anthropic como “risco da cadeia de suprimentos” — medida que poderia excluí-la de contratos governamentais — ou acionar a Lei de Produção de Defesa (DPA, na sigla em inglês), instrumento da era da Guerra Fria que concede ao presidente poderes emergenciais para intervir na economia em nome da segurança nacional.
Em declaração nesta quinta-feira (26), o CEO da Anthropic, Dario Amodei, afirmou que a empresa “não pode, em sã consciência”, permitir que o Departamento de Defesa utilize seus modelos “em todos os casos de uso lícito, sem limitação”. Ele acrescentou que as ameaças da pasta “não mudam nosso posicionamento”.
“É prerrogativa do Departamento selecionar contratantes mais alinhados com sua visão”, escreveu Amodei. “Mas, dado o valor substancial que a tecnologia da Anthropic provê para nossas forças armadas, esperamos que eles reconsiderem.” O executivo afirmou ainda: “Nossa grande preferência é em continuar a servir o Departamento e nossos soldados — com nossas duas medidas de segurança implementadas.”
Caso o Pentágono opte por retirar a empresa de seus contratos, acrescentou, a Anthropic trabalhará para garantir uma transição suave para outro fornecedor, “evitando qualquer anomalia nos planos e operações militares ou outras missões críticas”.
Linhas vermelhas: armas autônomas e vigilância em massa
- A Anthropic sustenta que não pode flexibilizar as restrições contra o uso de sua tecnologia em armas totalmente autônomas ou em sistemas de vigilância doméstica em massa;
- Ainda no comunicado, Amodei declarou que, “em conjunto restrito de casos, acreditamos que a IA pode minar, em vez de defender, os valores democráticos”;
- Ele acrescentou que certos usos “também estão fora do alcance do que a tecnologia atual pode fazer com segurança e confiabilidade”, citando especificamente armamentos autônomos e vigilância em massa;
- O Pentágono, por sua vez, afirma que não tem interesse em utilizar os modelos da Anthropic para armas totalmente autônomas ou para vigilância em massa de estadunidenses — prática que, segundo o porta-voz-chefe do Pentágono, Sean Parnell, é ilegal;
- Ainda assim, a pasta exige que o contrato permita o uso da tecnologia para “todos os fins lícitos”.
“Este é um pedido simples e sensato que impedirá a Anthropic de comprometer operações militares críticas e potencialmente colocar nossos combatentes em risco. Não permitiremos que nenhuma empresa dite as regras de como tomamos decisões operacionais”, escreveu Parnell em publicação no X.
Segundo autoridades ouvidas pela imprensa estadunidense, o Departamento de Defesa enviou à empresa sua “última oferta” na noite de quarta-feira (25), estabelecendo o prazo final de 15h01 (horário local) de sexta-feira (27) para que a Anthropic aceitasse os termos.
Leia mais:
- 7 aplicativos que usam IA para você testar no dia a dia
- 4 melhores inteligências artificiais para criar e editar vídeos
- Anthropic flexibiliza segurança para se manter competitiva na corrida de IA
Anthropic: uso do Claude em operação na Venezuela
De acordo com o Journal, os militares dos Estados Unidos utilizaram o Claude na operação na Venezuela que resultou na captura do presidente venezuelano Nicolás Maduro. Nem a Anthropic nem o Departamento de Defesa comentaram oficialmente o caso e não está claro como o sistema foi empregado.
A empresa proíbe o uso de sua IA para fins de violência. Em ensaio publicado no mês passado, Amodei alertou para os riscos de uma IA poderosa aplicada à vigilância: “Uma IA poderosa analisando bilhões de conversas de milhões de pessoas poderia medir o sentimento público, detectar focos de deslealdade em formação e eliminá-los antes que cresçam.”
Pressão e possíveis sanções
Caso seja classificada como “risco da cadeia de suprimentos”, a Anthropic poderia sofrer amplas restrições de importação, ser impedida de participar de licitações e ser excluída de setores considerados vitais à segurança nacional.
Já a DPA permitiria ao governo obrigar a empresa a disponibilizar sua tecnologia ao Pentágono, sob pena de multas, sanções criminais, perda de contratos, apreensão de bens ou até intervenção federal direta. Em contrapartida, empresas sob a DPA recebem proteção antitruste e acesso prioritário a suprimentos.
“Se eles não colaborarem, [Hegseth] garantirá que a Lei de Produção de Defesa seja aplicada à Anthropic, obrigando-a a ser usada pelo Pentágono independentemente de querer ou não”, disse um alto funcionário do Departamento de Defesa ao Financial Times.
O Pentágono já iniciou movimentações que indicam possível preparação para um rompimento. De acordo com reportagens, o Departamento de Defesa começou a contatar grandes contratadas do setor, como Boeing e Lockheed Martin, para avaliar sua exposição aos produtos da Anthropic.
Contratos bilionários e concorrência
Em julho de 2025, o Departamento de Defesa concedeu à Anthropic, Google, OpenAI e xAI um contrato de US$ 200 milhões (R$ 1 bilhão) para desenvolver “capacidades de IA avançada que melhorem a segurança nacional dos EUA”. A empresa foi a primeira a integrar seus modelos em fluxos de missão em redes classificadas, onde atua com parceiros, como a Palantir.
Segundo analistas, rivais da Anthropic, como Meta, Google e xAI, aceitaram permitir o uso de seus modelos para todas as aplicações legais do departamento, o que limita o poder de barganha da Anthropic.
Debate ético e intervenção governamental na Anthropic
Fundada em 2021 por ex-funcionários da OpenAI, a Anthropic se apresenta como uma empresa focada em segurança. Amodei já escreveu que a companhia foi criada “com um princípio simples: a IA deve ser uma força para o progresso humano, não para o perigo”.
Em ensaio recente, afirmou que “estamos consideravelmente mais próximos de um perigo real em 2026 do que estávamos em 2023”, defendendo que os riscos sejam administrados de forma “realista e pragmática”.
Especialistas avaliam que a ameaça de usar a Lei de Produção de Defesa contra uma empresa de IA seria sem precedentes. Geoffrey Gertz, do think tank Center for a New American Security, disse estar preocupado com o impacto sobre o desenvolvimento da empresa.
“Há grande preocupação de que o governo tome ações que prejudiquem a capacidade da Anthropic de continuar na vanguarda da IA responsável. Ações que tentem restringir os mercados potenciais da Anthropic podem ser muito prejudiciais e acabar tendo o efeito contrário ao que o governo quer com sua política de IA”, afirmou.
Para Amos Toh, do Brennan Center da Universidade de Nova York (EUA), a rápida adoção de IA pelo Pentágono evidencia a necessidade de maior supervisão legislativa. “A lei não acompanha a velocidade da evolução tecnológica. Mas isso não significa que o Departamento de Defesa tenha carta branca”, escreveu.
O caso expõe não apenas o debate sobre os limites éticos da IA em contextos militares e de vigilância, mas, também, a disposição do governo Trump de intervir diretamente em decisões corporativas em setores considerados estratégicos.
Enquanto o prazo imposto pelo Pentágono se aproxima, a Anthropic mantém sua posição de que não abrirá mão das salvaguardas que considera essenciais para o uso responsável de sua tecnologia.
O post Anthropic “bate o pé” e impede uso militar do Claude pelos EUA apareceu primeiro em Olhar Digital.