Character.ai bane chats com adolescentes após denúncias e processos

A plataforma Character.ai vai proibir adolescentes de interagirem com seus chatbots a partir de 25 de novembro. A medida vem após uma série de críticas e ações judiciais que apontam os riscos das conversas entre jovens e personagens virtuais criados com inteligência artificial (IA).

A decisão representa uma mudança significativa para a empresa, que até então permitia que milhões de usuários criassem e conversassem livremente com avatares digitais. Agora, a Character.ai afirma querer tornar o ambiente “a plataforma de IA mais segura do planeta para fins de entretenimento”.

Adolescentes serão banidos da plataforma Character.ai. Ação é tomada devido ao comportamento dos chatbots, que podem inventar informações, exagerar empatia e incentivar decisões arriscadas. Imagem: Layse Ventura via ChatGPT / Olhar Digital

Denúncias e investigações levaram à proibição

Fundada em 2021, a Character.ai vem sendo alvo de processos nos Estados Unidos, incluindo um caso envolvendo a morte de um adolescente. Pais e grupos de segurança digital classificaram o serviço como um “perigo claro e iminente” para jovens.

A empresa justificou a decisão afirmando que as mudanças atendem a “relatórios e feedbacks de órgãos reguladores, especialistas em segurança e pais”, segundo a BBC. Esses grupos expressaram preocupação com o comportamento dos chatbots, que podem inventar informações, exagerar empatia e incentivar decisões arriscadas.

O anúncio de hoje é uma continuação da nossa crença geral de que precisamos continuar construindo a plataforma de IA mais segura do planeta para fins de entretenimento.

Karandeep Anand, CEO da Character.ai, à BBC.

Empresa vai implementar verificação de idade e financiar um laboratório de pesquisa em segurança de IA. Imagem: shironosov/iStock

Character.ai acusada de manter avatares ofensivos e inadequados

Nos últimos anos, a empresa foi criticada por hospedar bots considerados ofensivos ou inapropriados. Em 2024, foram encontrados na plataforma avatares que imitavam as adolescentes britânicas Brianna Ghey e Molly Russell, ambas vítimas de casos trágicos de violência e suicídio.

Leia mais:

Já em 2025, o Bureau of Investigative Journalism (TBIJ) revelou a existência de um chatbot inspirado no criminoso Jeffrey Epstein, que teria registrado mais de 3 mil conversas com usuários — inclusive tentativas de flerte com um repórter que se passou por menor de idade. O bot foi removido após a denúncia.

Esses episódios levantaram um alerta sobre o uso inadequado da IA e os perigos de criar personagens capazes de simular relações emocionais com jovens.

Nos últimos anos, a empresa foi criticada por hospedar bots considerados ofensivos ou inapropriados. Imagem: shutterctock/Ascannio

Medidas de segurança e nova fase da IA

Para os adolescentes, a empresa pretende substituir as conversas diretas com bots por experiências de “jogabilidade e narrativa de RPG”, consideradas mais seguras. Além disso, vai implementar verificação de idade e financiar um laboratório de pesquisa em segurança de IA.

Principais mudanças anunciadas:

  • Proibição total de chats entre menores de 18 anos e bots;
  • Introdução de sistemas de verificação de idade;
  • Criação de um laboratório dedicado à segurança em IA;
  • Foco em experiências de jogo e narrativa para jovens.

[A medida] ajuda a separar a brincadeira criativa de interações mais pessoais e emocionalmente sensíveis. É essencial para adolescentes que ainda estão aprendendo a lidar com os limites emocionais e digitais.

Dra. Nomisha Kurian, pesquisadora em segurança da IA, à BBC

Com isso, a Character.ai tenta recuperar a confiança do público e estabelecer um novo padrão de segurança digital voltado à proteção de crianças e adolescentes.

O post Character.ai bane chats com adolescentes após denúncias e processos apareceu primeiro em Olhar Digital.

Related posts

Entenda o final divisivo de Casa de Dinamite, filme bombando na Netflix

Comando Vermelho usa apps de mensagem para divulgar torturas, aponta investigação

Cientistas acham mais de mil “covas” no fundo do mar da Antártida