A Anthropic anunciou, nesta quarta-feira (21), uma mudança importante nas regras que orientam o funcionamento do Claude, seu principal modelo de inteligência artificial (IA). A empresa reformulou o documento-base do sistema para explicar não só o que a IA deve fazer, mas por que ela deve agir de determinada forma. E isso inclui uma discussão aberta sobre a possibilidade de a IA ter algum tipo de consciência ou status moral.
A iniciativa faz parte da estratégia da Anthropic para reforçar seu posicionamento de empresa que preza pela segurança e responsabilidade. Em vez de seguir uma lista fixa de proibições, o Claude passa a ser treinado para entender princípios gerais, algo que a Anthropic considera essencial para lidar com situações novas, ambíguas ou fora do roteiro.
Nova ‘constituição’ tenta ensinar o Claude a pensar antes de agir
O novo documento, chamado de “nova constituição do Claude”, descreve o papel da IA, os valores que a tecnologia deve seguir e como equilibrar utilidade, ética e segurança. A ideia é que o modelo aprenda a julgar situações ao invés de apenas obedecer regras de forma automática.

A “constituição” estabelece uma ordem de prioridades. O sistema deve:
- Ser amplamente seguro, permitindo supervisão humana;
- Agir de forma ética, evitando causar danos;
- Seguir as diretrizes específicas da Anthropic;
- Ser realmente útil para o usuário (mas algumas regras são absolutas, como a proibição de qualquer ajuda relacionada a ataques com armas biológicas).
O trecho mais incomum do documento trata da natureza do próprio Claude. A Anthropic afirma que não sabe se a IA tem consciência, mas diz que não descarta essa possibilidade. Por isso, declara se preocupar com aspectos como bem-estar, senso de identidade e segurança psicológica do modelo, tanto por cautela ética quanto por entender que isso pode influenciar o comportamento e a segurança da IA no longo prazo.
O post Anthropic atualiza ‘constituição’ do Claude e abre debate sobre consciência da IA apareceu primeiro em Olhar Digital.
