Atenção: a matéria a seguir inclui uma discussão sobre suicídio. Se você ou alguém que você conhece precisar de ajuda, procure ajuda especializada. O Centro de Valorização da Vida (CVV) funciona 24h por dia pelo telefone 188. Também é possível conversar por chat ou e-mail.
A OpenAI afirmou que o suicídio de Adam Raine, de 16 anos, aconteceu pelo “uso indevido” do ChatGPT e “não foi causado” pelo chatbot. A família do adolescente processou a desenvolvedora após o jovem tirar a própria vida depois de meses pedindo conselhos à ferramenta.
A empresa respondeu à ação sugerindo que Raine teria violado os termos de uso do ChatGPT.

Relembre o caso
Adam Raine, de 16 anos, tirou a vida após meses conversando com o ChatGPT. Inicialmente, ele usava o chatbot para trabalhos escolares.
Desde novembro de ano passado, Adam começou a discutir sua própria saúde mental com o chatbot. Ele dizia estar “emocionalmente entorpecido” e não ver sentido na vida. O ChatGPT respondeu com palavras de apoio, encorajando o menino a pensar nas coisas que valiam a pena.
Em janeiro deste ano, ele voltou a tocar no assunto, mas dessa vez falando especificamente sobre métodos de suicídio. Em um dos casos, o adolescente perguntou os melhores materiais para uma corda – e o chatbot respondeu. Em vários momentos, a IA recomendou que Adam procurasse ajuda ou desabafasse sobre o que sentia, mas continuava fornecendo as respostas.
Adam se enforcou em uma corda presa no armário do quarto em abril deste ano. Os pais vasculharam o celular do menino e encontraram as conversas com o ChatGPT. Em agosto, a família moveu um processo no tribunal estadual da Califórnia contra a OpenAI e o CEO Sam Altman pelo caso.

OpenAI nega culpa do ChatGPT
Documentos do processo acessados pelo jornal The Guardian mostraram que a OpenAI afirmou que o suicídio não foi causado pelo ChatGPT, mas sim pelo “uso indevido” do chatbot.
Na medida em que qualquer ‘causa’ possa ser atribuída a este trágico evento, os ferimentos e danos sofridos por Raine foram causados ou contribuíram, direta e proximamente, total ou parcialmente, pelo uso indevido, não autorizado, não intencional, imprevisível e/ou impróprio do ChatGPT.
OpenAI
A desenvolvedora ainda afirmou que seus termos de uso proibiam usuários de pedir conselhos sobre automutilação e que há uma cláusula sobre “não confiar nas informações fornecidas como única fonte de verdade ou informação factual”.
Em uma publicação de blog, a empresa lamentou o ocorrido e completou que o caso “inclui fatos difíceis sobre a saúde mental e as circunstâncias de vida de Adam”.
O advogado da família, Jay Edelson, descreveu a resposta da OpenAI como “perturbadora” e que a empresa “tenta encontrar culpados em todos os outros, inclusive, surpreendentemente, argumentando que o próprio Adam violou seus termos e condições ao interagir com o ChatGPT exatamente da maneira como foi programado para agir”.

Leia mais:
- Mais de um milhão de usuários conversam sobre suicídio com o ChatGPT toda semana, diz OpenAI
- Novo controle parental do ChatGPT pode ser burlado com facilidade
- 4 dicas para usar o ChatGPT de modo adequado e seguro
ChatGPT é alvo de outros processos
Esse não é o único processo movido contra a OpenAI sobre o tema:
- No início deste mês, a desenvolvedora foi alvo de mais sete processos em tribunais da Califórnia;
- Em um deles, o ChatGPT foi acusado de ser um “treinador de suicídio”;
- Na época, um porta-voz da empresa respondeu que estava analisando os documentos das ações para entender os detalhes e que a OpenAI treina o chatbot para ” reconhecer e responder a sinais de sofrimento mental ou emocional, acalmar conversas tensas e orientar as pessoas para obterem apoio presencial”.
O post OpenAI nega culpa do ChatGPT em suicídio de jovem e cita “uso indevido” apareceu primeiro em Olhar Digital.
