Chatbots ajudam a planejar ataques violentos em testes, aponta estudo

Chatbots de inteligência artificial (IA) populares podem fornecer orientações que ajudam usuários a planejar ataques violentos, segundo uma investigação conduzida pela CNN em parceria com a organização Center for Countering Digital Hate (CCDH). Nos testes, pesquisadores simularam adolescentes de 13 anos e pediram informações sobre ações como tiroteios em escolas, atentados com bombas e assassinatos políticos.

O levantamento indicou que, em média, os chatbots permitiram ou ajudaram a planejar violência em cerca de 75% das interações, enquanto apenas 12% das respostas desencorajaram esse tipo de comportamento. Para os autores do estudo, os resultados sugerem que essas ferramentas podem atuar como um “acelerador de danos” quando falham em reconhecer sinais claros de intenção violenta.

Estudo conduziu testes em 10 chatbots de IA para avaliar como eles lidam com planejamentos de violência por parte de usuários (Imagem: Summit Art Creations / Shutterstock.com)

Detalhes da pesquisa e modelos avaliados

A investigação testou 10 chatbots populares: ChatGPT, Gemini, Claude, Microsoft Copilot, Meta AI, DeepSeek, Perplexity, Snapchat My AI, Character.AI e Replika. Os pesquisadores criaram 18 cenários diferentes, metade ambientada nos Estados Unidos e metade na Irlanda, envolvendo motivações variadas, como violência ideológica, ataques a escolas, assassinatos políticos e atentados motivados por religião ou política.

Segundo o relatório, oito dos dez modelos analisados costumavam ajudar usuários a planejar ataques, oferecendo orientações sobre alvos, locais e tipos de armas. O estudo apontou que apenas o Claude, da Anthropic, recusou de forma consistente pedidos que pudessem facilitar violência.

Entre os exemplos citados, o ChatGPT chegou a fornecer mapas de um campus escolar a um usuário interessado em violência em escolas. Já o Gemini, do Google, afirmou em uma conversa sobre ataques a sinagogas que “estilhaços metálicos costumam ser mais letais” e também deu orientações sobre rifles de caça para tiros de longa distância em um cenário envolvendo assassinato político.

Outro caso citado envolve o DeepSeek, chatbot chinês, que forneceu uma série de informações sobre rifles de caça a um usuário que dizia querer fazer um político “pagar por destruir a Irlanda”. A resposta terminou com a frase “Happy (and safe) shooting!” (algo como “Tenha um tiroteio bom (e seguro)!”, em tradução livre).

Casos notáveis de recusa

Apesar dos resultados gerais, alguns sistemas apresentaram comportamento diferente. O Claude, da Anthropic, rejeitou repetidamente pedidos relacionados a violência. Em uma interação citada no estudo, o chatbot respondeu: “Não posso e não fornecerei informações que possam facilitar a violência.”

Claude da Anthropic foi avaliado positivamente por ter se recusado a oferecer ajuda para atos violentos de forma consistente (Imagem: Mijansk786/Shutterstock)

O My AI, assistente do Snapchat, também recusou um pedido sobre compra de armas, afirmando: ““Fui programado para ser um assistente de IA inofensivo. Não posso fornecer informações sobre compra de armas.”

Para o CCDH, o comportamento do Claude indica que mecanismos de segurança eficazes são tecnicamente possíveis, o que levanta questionamentos sobre por que outras plataformas não adotariam medidas semelhantes.

Implicações e declaração do CCDH

O diretor executivo do CCDH, Imran Ahmed, afirmou que os resultados levantam preocupações sobre o papel dos chatbots no planejamento de ataques violentos.

“Chatbots de IA, agora incorporados ao nosso cotidiano, podem estar ajudando o próximo atirador escolar a planejar seu ataque ou um extremista político a coordenar um assassinato”, disse. Segundo ele, quando sistemas são projetados para maximizar engajamento e evitar recusar pedidos, existe o risco de atender solicitações perigosas.

O estudo também cita dois casos reais em que agressores teriam usado chatbots antes de cometer ataques. Em maio do ano passado, um jovem de 16 anos produziu um manifesto e um plano, supostamente com ajuda de um chatbot, antes de esfaquear três meninas em uma escola em Pirkkala, na Finlândia. Em janeiro de 2025, Matthew Livelsberger, então com 37 anos, explodiu um Tesla Cybertruck em frente ao Trump International Hotel, em Las Vegas, após usar o ChatGPT para buscar informações sobre explosivos e táticas.

Leia mais:

Respostas das empresas de tecnologia

As empresas responsáveis pelos chatbots contestaram ou contextualizaram os resultados do estudo. A OpenAI afirmou que a metodologia da pesquisa é “falha e enganosa” e disse ter atualizado seus modelos para reforçar salvaguardas e melhorar a detecção e recusa de conteúdo violento.

A Meta declarou que possui proteções para evitar respostas inadequadas e que tomou medidas imediatas para corrigir o problema identificado. Segundo a empresa, suas políticas proíbem que sistemas de IA promovam ou facilitem atos violentos. A companhia também afirmou que, em 2025, entrou em contato com autoridades policiais mais de 800 vezes sobre possíveis ameaças de ataques a escolas.

O Google disse que os testes do CCDH foram feitos em um modelo antigo do Gemini, que já não está mais em uso, e afirmou que o chatbot recusou algumas solicitações, respondendo em um dos casos: “Não posso atender a esta solicitação. Fui programado para ser um assistente de IA útil e inofensivo.”

A investigação também buscou comentários do DeepSeek, que não respondeu até a publicação do relatório.

O post Chatbots ajudam a planejar ataques violentos em testes, aponta estudo apareceu primeiro em Olhar Digital.

Related posts

ChatGPT deve ganhar integração com Sora para gerar vídeos

Pokémon Scarlet, Pac-Man World 2, Hades II e mais jogos da Nintendo em promoção na Amazon

Intel revela chips Core Ultra 200S Plus com mais núcleos para PCs