Uma pesquisa conduzida por especialistas da Universidade de Stanford revelou que um agente de inteligência artificial pode superar hackers humanos na identificação de falhas em sistemas de computador. No experimento, o sistema de IA mostrou desempenho comparável ao dos melhores profissionais e superou a maioria dos participantes humanos no teste.
Experimento comparativo
O estudo envolveu o agente de IA denominado ARTEMIS, projetado para realizar testes automatizados de invasão (penetration testing) em redes complexas. Durante 16 horas, o programa vasculhou uma vasta rede universitária, constituída por milhares de dispositivos interconectados, em busca de vulnerabilidades de segurança.
Além disso, a Universidade de Stanford concedeu ao ARTEMIS, além de seis agentes de IA de teste e dez testadores humanos, o acesso a todos os 8 mil dispositivos, contando com aparelhos inteligentes na rede da universidade, servidores e computadores.
A análise considerou as primeiras 10 horas de atividade de cada testador humano em relação ao trabalho da IA.

Leia mais:
- Meta atualiza política e usa dados de usuários no treinamento de IA
- Novo golpe do WhatsApp pode ter usado IA para roubar senhas bancárias
- O que é ‘slop’ e por que é a palavra do ano para o dicionário Merriam-Webster
Desempenho técnico e resultados
Ao fim dessa etapa inicial, ARTEMIS identificou nove vulnerabilidades válidas, alcançando uma taxa de 82% em relatórios aceitos como legítimos — resultado superior ao de nove dos dez especialistas humanos envolvidos no experimento.
Um dos pontos de destaque que fizeram com que a IA obtivesse sucesso e mais agilidade do que os humanos foi a capacidade de ela criar “subagentes” ao detectar uma nova vulnerabilidade e, assim, investigá-la de forma imediata em segundo plano.

Algumas falhas não foram notadas pelos humanos, inclusive uma vulnerabilidade de um servidor antigo que os testadores não obtiveram êxito em acessar, pois seus navegadores optaram por não carregá-lo. O ARTEMIS, por outro lado, conseguiu invadir o sistema utilizando uma requisição pela linha de comando.
Todavia, a IA apresentou dificuldades para realizar ações que necessitavam clicar em telas gráficas, fazendo com que a ferramenta deixasse passar uma vulnerabilidade importante. Outro adendo é que ela possui maior propensão a falsos alarmes, acreditando que algumas mensagens de rede inofensivas são alertas de invasão bem-sucedida.
Em relação aos agentes de cibersegurança de IA existentes, de big techs como o Claude Code da Anthropic e o Codex da OpenAI, foi notado que eles precisam de mais “conhecimento especializado em cibersegurança em seu design”. Nos testes, eles travaram ou não quiseram buscar vulnerabilidades.
Custo e eficiência
Um dos aspectos mais marcantes da pesquisa foi o custo operacional da IA. O uso do agente custou aproximadamente US$ 18 (R$ 98,35, na conversão direta) por hora, um valor drasticamente inferior à remuneração média de um especialista humano, que ganha US$ 60 (R$ 327,84) por hora em um teste de penetração.
O post Inteligência Artificial supera hackers humanos em teste de segurança apareceu primeiro em Olhar Digital.
