Conforme reportado pelo Olhar Digital, o secretário de Defesa dos Estados Unidos, Pete Hegseth, deu um ultimato à startup de inteligência artificial Anthropic. A empresa deve decidir se libera ou não seu modelo de IA, o Claude, para usos irrestritos para o Pentágono – inclusive aplicações consideradas perigosas.
A Anthropic ficou conhecida no mercado por priorizar a segurança da tecnologia e resiste em flexibilizar suas regras. O embate com o governo dos EUA começou justamente porque a desenvolvedora não permitiu o uso do Claude em aplicações como armas totalmente autônomas nem em vigilância doméstica em massa.
O Pentágono exige que a startup libere sua tecnologia para “todos os fins lícitos” ou perderá o contrato com o governo. A startup tem até às 15h01 (horário local dos Estados Unidos) desta sexta-feira para decidir se aceita os termos ou não.
Caso não aceite, além de perder o contrato, a companhia pode entrar para uma lista de empresas que representam risco à cadeia de suprimentos – o que a excluiria de outros contratos federais. O governo também pode acionar a Lei de Produção de Defesa, mecanismo que permite intervenção estatal em nome da segurança nacional.
O impasse ganhou força após reuniões recentes entre executivos da empresa e autoridades do Pentágono.
Segundo a agência Reuters, em uma delas, foi discutido um cenário hipotético envolvendo o lançamento de um míssil balístico contra os EUA e o uso do Claude para auxiliar na resposta militar. Autoridades afirmam que a postura cautelosa da Anthropic irritou integrantes do governo, que defendem maior liberdade para empregar sistemas de IA em operações estratégicas.
A empresa, por sua vez, nega versões de que teria se recusado a cooperar em casos de defesa antimísseis, mas reafirma que não abrirá mão de suas “linhas vermelhas”. Em comunicado, o CEO Dario Amodei declarou que a companhia não pode permitir, “em sã consciência”, que seus modelos sejam utilizados sem limitações claras. Segundo ele, há situações em que a IA pode comprometer valores democráticos.
O Departamento de Defesa sustenta que não pretende usar a tecnologia para vigilância em massa – prática que, segundo seus porta-vozes, é ilegal – nem para retirar totalmente humanos do processo decisório em armas nucleares. Ainda assim, insiste que o governo deve ter a palavra final sobre o uso da tecnologia em qualquer finalidade permitida por lei.

Expansão da IA no Pentágono
A tensão ocorre em meio à expansão do uso de IA nas Forças Armadas. Nos últimos anos, o Pentágono firmou contratos de até US$ 200 milhões com laboratórios como Anthropic, OpenAI e Google. O Claude, por exemplo, já é empregado em análise de inteligência, planejamento operacional e cibersegurança.
Especialistas avaliam que o embate ultrapassa questões técnicas e reflete divergências mais amplas sobre governança da inteligência artificial. Para analistas consultados pela Reuters e pelo Washington Post, trata-se também de um conflito político, já que a empresa tem adotado posições públicas críticas a certas políticas do governo Trump relacionadas à tecnologia.
O desfecho pode influenciar o relacionamento entre o setor de IA e o governo americano. Caso o Pentágono avance com medidas coercitivas, como o uso da Lei de Produção de Defesa, o recado ao mercado seria de que empresas podem perder controle sobre suas inovações em nome da segurança nacional. Por outro lado, uma concessão da Anthropic poderia abrir precedente para uso mais amplo de IA em operações militares sensíveis.
O post Após ultimato do Pentágono, Anthropic tem uma escolha a fazer – e pode mudar os rumos da IA apareceu primeiro em Olhar Digital.
