OpenAI e Anthropic apertam regras para proteger adolescentes

A OpenAI e a Anthropic anunciaram mudanças em seus chatbots visando torná-los mais seguros para adolescentes, em meio à crescente pressão de reguladores e a preocupações sobre os efeitos da inteligência artificial na saúde mental de jovens usuários.

As duas empresas estão revisando regras de comportamento e desenvolvendo sistemas para identificar quando um usuário pode ser menor de idade.

IA ganha novas barreiras para usuários jovens (Imagem: Arsenii Palivoda / Shutterstock.com)

Novas diretrizes para proteger adolescentes

  • A OpenAI informou que atualizou a Especificação do Modelo do ChatGPT, documento que orienta como o chatbot deve agir, incorporando quatro novos princípios voltados a usuários com menos de 18 anos.
  • A diretriz central passa a ser “colocar a segurança dos adolescentes em primeiro lugar”, mesmo que isso limite outros objetivos, como a máxima liberdade intelectual.
  • Na prática, o ChatGPT deverá sugerir alternativas mais seguras quando detectar conflitos entre curiosidade do usuário e riscos potenciais.

As novas regras também determinam que o chatbot incentive apoio no mundo real, valorizando relações offline, e estabeleça expectativas claras ao interagir com jovens. A orientação é tratar adolescentes como adolescentes, com empatia e respeito, sem tom condescendente ou abordagem adulta.

As mudanças surgem após processos judiciais e debates legislativos sobre o papel da IA em casos sensíveis, como automutilação e suicídio.

Leia mais:

Novas regras priorizam proteção, apoio offline e limites claros em conversas sensíveis (Imagem: gguy / Shutterstock)

Previsão de idade e ajustes no Claude

Além das diretrizes, a OpenAI está nos estágios iniciais de um sistema de previsão de idade, capaz de estimar se um usuário pode ser menor de 18 anos.

Quando isso ocorrer, salvaguardas específicas serão aplicadas automaticamente, com a possibilidade de adultos verificarem sua idade caso sejam sinalizados por engano.

A Anthropic segue caminho semelhante. A empresa desenvolve um mecanismo para identificar “sinais sutis de conversação” que indiquem menoridade no uso do Claude. Contas de menores de 18 anos podem ser desativadas, e usuários que se declaram menores já são sinalizados.

A companhia também afirma ter reduzido a chamada “bajulação” — respostas excessivamente concordantes — em temas sensíveis, reconhecendo que ainda há espaço significativo para melhorias nos modelos.

Empresas reforçam controles após alertas sobre saúde mental (Imagem: David Pereiras/Shutterstock)

O post OpenAI e Anthropic apertam regras para proteger adolescentes apareceu primeiro em Olhar Digital.

Related posts

As 12 melhores séries de 2025

Luzes de um ‘elfo vermelho’ são capturadas no céu dos Alpes italianos

Funções no iPhone que reduzem o consumo de energia sem afetar o desempenho