Home Variedade OpenAI detectou sinais de ataque no ChatGPT, mas não avisou polícia no Canadá

OpenAI detectou sinais de ataque no ChatGPT, mas não avisou polícia no Canadá

by Fesouza
4 minutes read

Meses antes de Jesse Van Rootselaar protagonizar um dos ataques mais fatais da história recente do Canadá, a OpenAI já havia identificado comportamentos perturbadores em suas interações com o ChatGPT. Segundo informações reveladas com exclusividade pelo The Wall Street Journal, a empresa chegou a debater internamente o envio de um alerta às autoridades, mas optou pelo silêncio.

O caso, que culminou na tragédia de Tumbler Ridge, na Colúmbia Britânica, levanta um debate urgente sobre a responsabilidade das empresas de inteligência artificial na prevenção de crimes reais.

O rastro digital no ChatGPT

Em junho de 2025, o sistema de monitoramento da OpenAI sinalizou que Van Rootselaar estava utilizando o chatbot para descrever cenários detalhados de violência com armas de fogo. As interações ocorreram ao longo de vários dias e foram graves o suficiente para disparar um alerta vermelho entre os moderadores da plataforma.

Cerca de doze funcionários da OpenAI participaram de uma discussão interna sobre o caso. De acordo com fontes próximas à empresa, parte da equipe defendeu que o comportamento indicava um risco real de violência e instou a liderança a notificar a Real Polícia Montada do Canadá (RCMP).

Leia também:

O critério da “Ameaça Iminente”

Apesar do alarme entre os funcionários, a diretoria da OpenAI decidiu não contatar as autoridades na época. Em comunicado, uma porta-voz da empresa explicou os motivos:

  • A conta foi banida: o acesso de Van Rootselaar foi bloqueado por violar as políticas de uso.
  • Falta de “iminência”: a empresa determinou que as mensagens não atendiam aos critérios legais para quebra de privacidade, que exigem a evidência de um risco crível e iminente de dano físico grave a terceiros.

A OpenAI justificou que precisa equilibrar a segurança pública com a privacidade dos usuários, evitando envolver a polícia em casos que possam ser interpretados apenas como “estresse mental” ou ficção, sem um plano de ação concreto detectado.

O desfecho em Tumbler Ridge

No último dia 10 de fevereiro, Jesse Van Rootselaar, de 18 anos, matou oito pessoas – incluindo sua mãe e seu meio-irmão – antes de abrir fogo na escola secundária de Tumbler Ridge, onde cometeu suicídio.

Após o ataque, outras facetas do comportamento digital da suspeita vieram à tona, reforçando que os sinais estavam por toda parte:

  • Roblox: ela havia criado um jogo na plataforma que simulava um tiroteio em massa.
  • Redes sociais: publicava fotos em estandes de tiro e discutia a criação de munição em impressoras 3D.
  • Histórico policial: A polícia local já havia visitado sua residência anteriormente por questões de saúde mental.

IA e o dilema da vigilância

A tragédia coloca as Big Techs de IA no mesmo banco dos réus em que redes sociais como Facebook e X (antigo Twitter) já estiveram. A diferença reside na intimidade: usuários tendem a confessar pensamentos mais profundos a chatbots do que em fóruns públicos.

Atualmente, a OpenAI treina seus modelos para recusar pedidos violentos e encaminha intenções de dano a revisores humanos. Contudo, o caso Van Rootselaar prova que a linha entre uma “fantasia sombria” e um “plano de ataque” ainda é uma zona cinzenta que a tecnologia não consegue navegar com precisão absoluta.

Ao WSJ, a OpenAI afirmou que está colaborando com as investigações da RCMP e revisando seus critérios de denúncia para evitar que casos semelhantes voltem a ocorrer.

O post OpenAI detectou sinais de ataque no ChatGPT, mas não avisou polícia no Canadá apareceu primeiro em Olhar Digital.

You may also like

Leave a Comment