O chatbot de IA Claude, da Anthropic, ganhou a capacidade de encerrar conversas consideradas “persistentemente prejudiciais ou abusivas”.
O recurso, já disponível nos modelos Opus 4 e 4.1, é acionado apenas como “último recurso” quando usuários insistem repetidamente em solicitar conteúdos nocivos, mesmo após recusas e tentativas de redirecionamento.

Claude demonstrou “angústia” por pedidos prejudiciais
- Segundo a empresa, a medida busca proteger o “bem-estar potencial” do modelo, que em testes demonstrou sinais de “angústia aparente” diante de pedidos envolvendo violência, terrorismo ou exploração sexual de menores.
- Nesses casos, Claude tende a interromper o diálogo, bloqueando novas mensagens naquele chat.
- Ainda assim, o usuário pode iniciar uma nova conversa ou editar mensagens anteriores para tentar novamente.
Leia mais:
- ChatGPT vs Claude.AI: qual IA é melhor?
- Claude.AI: como usar inteligência artificial
- Quais são as principais empresas de Inteligência Artificial do mundo

Atualização afeta casos extremos
A Anthropic ressalta que esses são casos extremos e não devem afetar a maioria dos usuários, mesmo em discussões sobre temas controversos.
Para situações de risco real de automutilação ou violência iminente, Claude não encerra a conversa — nesses casos, a startup firmou parceria com a empresa de suporte em crises Throughline para oferecer respostas adequadas.
Além disso, a Anthropic atualizou recentemente sua política de uso, proibindo que Claude seja empregado no desenvolvimento de armas biológicas, químicas, nucleares ou radiológicas, assim como na criação de malware ou exploração de falhas de segurança.

O post Claude agora pode encerrar conversas abusivas apareceu primeiro em Olhar Digital.