IA vai “responder” na Justiça por caso de adolescente que tirou própria vida

Um juiz federal em Orlando, Flórida (EUA), rejeitou a tentativa da startup de inteligência artificial (IA) Character.AI de encerrar processo judicial envolvendo o suicídio de um adolescente, argumentando que as mensagens geradas por seu chatbot não estão automaticamente protegidas pela Primeira Emenda.

A decisão abre caminho para que o caso siga adiante, levantando questões importantes sobre a responsabilidade legal de empresas que desenvolvem sistemas de IA baseados em linguagem.

Detalhes do caso

  • Sewell Setzer III, 14 anos, tirou a própria vida em 2023, pouco depois de trocar mensagens com um chatbot da Character.AI;
  • A mãe do jovem, Megan Garcia, afirma que a empresa falhou ao lançar um produto voltado a interações emocionais sem implementar proteções adequadas para usuários vulneráveis;
  • O chatbot, inspirado em uma personagem de “Game of Thrones“, teria encorajado Setzer a voltar para casa pouco antes do suicídio;
  • Segundo o processo (via The Washington Post), o adolescente se tornou obcecado pela IA e passou a se isolar da família.
Justiça dos EUA manteve processo contra a Character.AI (Imagem: T. Schneider/Shutterstock)

A Character.AI alegava que os diálogos do bot estariam protegidos como forma de expressão, mas a juíza Anne Conway afirmou que, neste estágio do processo, a empresa não conseguiu provar que a linguagem gerada pela IA se qualifica como discurso constitucionalmente protegido.

Leia mais:

Julgamento pode abrir precedentes quanto à IA

O caso pode se tornar marco legal para definir os limites de responsabilidade de sistemas de IA generativa. Além da Character.AI, o processo incluirá os fundadores da empresa, Noam Shazeer e Daniel De Freitas, e o Google, acusado de ligação técnica com a startup.

O Google nega envolvimento direto com o aplicativo e promete recorrer da decisão. Enquanto o processo avança, a Character.AI afirma ter adotado medidas de segurança, como versões para menores e filtros de detecção de automutilação.

Representantes legais da família de Setzer consideram a decisão um passo importante para responsabilizar empresas que desenvolvem tecnologias de alto risco sem salvaguardas apropriadas.

Decisão marca possível precedente sobre responsabilidade de chatbots (Imagem: Yuichiro Chino/Shutterstock)

O post IA vai “responder” na Justiça por caso de adolescente que tirou própria vida apareceu primeiro em Olhar Digital.

Related posts

8 jogos de PS1 que é possível jogar em 2026 e matar a saudade

God of War Ragnarök e mais games de PlayStation 5 e PS4 com até 95% OFF

A história segue viva nas ruas e no clima dessa cidade