A Anthropic atualizou a política de uso de seu chatbot Claude, em resposta a crescentes preocupações com segurança cibernética e o uso indevido da IA.
A nova versão proíbe especificamente o desenvolvimento de armas de destruição em massa, incluindo explosivos de alto poder, armas biológicas, químicas, nucleares e radiológicas (QBRN), além de manter restrições já existentes sobre outros materiais perigosos.

Novas regras e políticas
- A atualização também introduz regras rigorosas contra o uso do Claude para comprometer computadores ou sistemas de rede, prevenir exploração de vulnerabilidades, criação de malware e ataques cibernéticos.
- Ferramentas como o Uso do Computador e o Código Claude, que permitem ao modelo assumir o controle de sistemas ou se integrar diretamente a terminais de desenvolvedores, são citadas como potenciais riscos.
- Além das medidas de segurança, a empresa flexibilizou sua política em relação a conteúdo político.
- Agora, o Claude só é proibido para casos enganosos ou que possam prejudicar processos democráticos, como segmentação de eleitores e campanhas manipulativas.
Leia mais:
- ChatGPT vs Claude.AI: qual IA é melhor?
- Claude.AI: como usar inteligência artificial
- Quais são as principais empresas de Inteligência Artificial do mundo

Medidas de proteção
Segundo a Anthropic, suas salvaguardas de Nível 3 de Segurança de IA, implementadas em maio junto ao modelo Claude Opus 4, visam impedir abusos em escala e proteger tanto usuários quanto o público em geral.
Com as mudanças, a empresa busca equilibrar o uso seguro da IA com a liberdade para aplicações legítimas, ao mesmo tempo em que responde a preocupações sobre armas, cibersegurança e influência política.

O post Anthropic endurece regras de segurança do Claude apareceu primeiro em Olhar Digital.