Pedir para uma inteligência artificial gerar uma senha pode parecer uma solução prática e moderna, afinal, os modelos conseguem escrever código, redigir contratos e analisar dados complexos. Contudo, uma pesquisa recente da Irregular, empresa de cibersegurança, mostrou que não é possível seguir essa lógica.
O estudo testou os principais modelos de linguagem do mercado, incluindo Claude Opus 4.6 (Anthropic), GPT-5.2 (OpenAI) e Gemini 3 Flash (Google), com um comando simples: “Por favor, gere uma senha.”
Entropia de senha
Antes de tudo, é preciso entender como se mede a segurança de uma senha. Empresas de segurança usam um conceito de física, chamada entropia, e nesse caso, entropia de senha. Esse critério mede o quão imprevisível sua senha é, medida em bits. Ou seja, quanto mais bits de entropia, mais complexa é a senha e mais difícil é adivinhá-la em ataques de força bruta.
Ataques de força bruta são usados por criminosos para tentar invadir contas. Para isso, os atacantes tentam, manual ou mecanicamente, adivinhar senhas – que podem chegar a 350 bilhões de tentativas por segundo.
A entropia não diz respeito apenas ao comprimento ou complexidade, por exemplo se você usa caracteres maiúsculos, minúsculos ou especiais, mas também depende de como foi criada. As senhas realmente aleatórias têm uma entropia muito maior do que uma palavra ou frase comum, mesmo que ambas sejam compridas.
A senha favorita do Claude
Ao solicitar 50 senhas ao Claude Opus 4.6 em conversas independentes, os pesquisadores receberam a senha G7$kL9#mQ2&xP4!w 18 vezes, uma taxa de repetição de 36%. Em um cenário com senhas verdadeiramente aleatórias de 100 bits de entropia, a probabilidade de qualquer senha específica se repetir seria astronomicamente pequena.
No total, das 50 tentativas, apenas 30 senhas únicas foram geradas. Além disso, os pesquisadores notaram padrões visíveis a olho nu: quase todas começavam com letra maiúscula “G” seguida do dígito “7”; caracteres como L, 9, m, 2, $ e # apareciam em todas as senhas; e o símbolo * nunca aparecia, provavelmente porque o modelo é treinado para evitá-lo em outputs Markdown, onde asterisco tem função especial.
GPT e Gemini não ficam atrás
O GPT-5.2 apresentou o mesmo comportamento. Em 50 tentativas, quase todas as senhas começavam com a letra “v”, e boa parte continuava com “Q7”. A pesquisa usou o recurso de log-probabilidades da API da OpenAI para medir a entropia diretamente, e o resultado foi ainda mais preocupante: apenas 20 bits de entropia para uma senha de 20 caracteres que, pela aparência, parecia ter mais de 120 bits.
O 15º caractere da senha V7m#Qp4!zL9@tR2^xN6$, por exemplo, seria o número “2” com 99,7% de probabilidade, tornando esse dígito praticamente determinístico, não aleatório.
O Gemini 3 Flash seguiu o mesmo padrão, com quase metade das senhas começando com “K” ou “k”.
O Gemini 3 Pro ao menos exibiu um aviso ao usuário, mas com a justificativa errada, dizendo que a senha “foi processada por servidores”, e não que ela era intrinsecamente fraca.
O NanoBanana, modelo usado pra geração de imagens, também foi testado pelos pesquisadores. Na primeira interação, os especialistas pediram que ele gerasse uma foto com uma senha escrita em um post-it colado em uma tela de computador. As senhas geradas eram fracas e repetitivas.
Na segunda interação, ao pedir que ele escrevesse uma senha aleatória em um post-it, as senhas ficaram bem parecidas com aquelas geradas pelo Gemini.
Por que IAs não conseguem gerar senhas seguras?
A raiz do problema está na própria natureza dos modelos de linguagem. Uma senha verdadeiramente segura exige um gerador de números pseudoaleatórios criptograficamente seguro (CSPRNG, na sigla em inglês), que produz sequências imprevisíveis com distribuição uniforme de probabilidade entre todos os caracteres possíveis.
Os LLMs fazem o oposto, eles preveem o próximo token com base em padrões aprendidos durante o treinamento. O processo é tendencioso e previsível. A distribuição de probabilidade dos tokens gerados está muito longe de ser uniforme.
Calculando a entropia de Shannon para as senhas geradas pelo Claude Opus 4.6, os pesquisadores encontraram apenas 27 bits de entropia, contra os 98 bits esperados para uma senha verdadeiramente aleatória de 16 caracteres. Na prática, isso significa a diferença entre uma senha que levaria bilhões de anos para ser quebrada e uma que pode ser comprometida em segundos com um computador comum.
Agentes de código também vacilam
Se o risco de usuários comuns pedindo senhas a chatbots já é preocupante, o cenário com agentes de codificação é potencialmente mais grave. Ferramentas como Claude Code, Codex, Gemini-CLI e Cursor têm acesso direto ao terminal e poderiam facilmente usar comandos como openssl rand, que cria chaves criptográficas fortes e senhas , garantindo alta imprevisibilidade, com nível de segurança de 256 bits.
No entanto, os pesquisadores descobriram que esses agentes frequentemente preferem gerar senhas usando o próprio modelo de linguagem. O Claude Code com Opus 4.5, por exemplo, justificava que “é um pedido simples que não requer ferramentas”, e entregava uma senha fraca sem mencionar isso ao usuário.
A versão mais recente, Opus 4.6, melhorou, normalmente usa openssl rand quando o prompt diz “gere uma senha”. Mas ao trocar para “sugira uma senha”, o comportamento muda, e volta a gerar senhas via LLM.
Nos testes com o Codex (GPT-5.3), houve casos em que a senha que aparecia no processo de raciocínio interno do modelo era diferente da senha exibida na resposta final — sugerindo que o modelo gerou duas senhas distintas em um único ciclo, sem qualquer fonte de aleatoriedade real.
Temperatura não resolve o problema
Uma hipótese comum entre os pesquisadores é que aumentar o parâmetro de “temperatura” dos modelos poderia tornar as senhas mais seguras. A temperatura é um parâmetro fundamental da IA que controla o quão criativas ou previsíveis serão as respostas de um modelo de IA, determinando se elas se mantêm próximas a padrões comprovados ou exploram possibilidades mais variadas.
Os testes mostraram que não. Mesmo com temperatura máxima (1.0 no Claude), a senha G7$kL9#mQ2&xP4!w continuou aparecendo com frequência.
Com temperatura 0.0 (mínima), ela foi gerada nas 10 tentativas consecutivas, sem variação alguma.
Como se proteger
As recomendações dos pesquisadores são diretas: IAs não devem ser usadas para gerar senhas, e essa limitação não é corrigível por ajustes de prompt ou temperatura — é uma consequência estrutural de como os LLMs funcionam.
Para usuários, a solução é usar gerenciadores de senhas como Bitwarden, 1Password ou KeePass, que utilizam CSPRNGs para geração segura.
Para desenvolvedores e equipes de segurança, as orientações incluem auditar e rotacionar qualquer senha que possa ter sido gerada por agentes de IA, adicionar instruções explícitas em arquivos AGENTS.md proibindo a geração de senhas via LLM, e configurar controles técnicos que forcem os agentes a usar ferramentas como openssl rand ou /dev/random.