IA pode inserir falhas invisíveis em chips e o problema não tem conserto, alerta estudo

Uma pesquisa da Escola de Engenharia Tandon da NYU, publicada no IEEE Security & Privacy, alerta que modelos de linguagem grandes (LLMs) podem ser usados para inserir vulnerabilidades maliciosas em projetos de hardware.

Em uma competição de dois anos chamada Desafio de Ataque de Hardware de IA, parte do evento CSAW, equipes empregaram IA generativa para identificar pontos frágeis em designs abertos – incluindo processadores RISC-V e aceleradores criptográficos – e implantar “trojans” de hardware que vazam chaves, abrem backdoors ou travam sistemas sob condições específicas.

Experimento revela como modelos de IA conseguem sabotar chips de computador – Imagem: H_Ko/Shutterstock

IA facilita processo de ataque a chips

  • Os pesquisadores demonstraram que ferramentas de IA simplificam o processo, permitindo que tanto iniciantes quanto especialistas automatizem a análise de código, gerem e insiram modificações maliciosas com mínima supervisão humana.
  • Equipes de graduação com pouca experiência conseguiram criar falhas de média a alta gravidade.
  • Muitos participantes também descobriram formas de contornar salvaguardas dos LLMs, enquadrando prompts como exercícios acadêmicos ou pedindo respostas em idiomas menos comuns.

Os envios mais eficazes usaram ferramentas totalmente automatizadas: elas localizavam trechos vulneráveis no design e inseriam trojans personalizados.

Leia mais

Vulnerabilidades criadas por modelos generativos não podem ser corrigidas após a fabricação do hardware – Imagem: Wright Studio/Shutterstock

Autores do estudo alertam para gravidade do problema

Os autores enfatizam que a permanência dessas falhas é especialmente perigosa – ao contrário de um software, um chip fabricado com um backdoor não pode ser consertado sem trocar fisicamente o componente.

O estudo conclui pedindo filtros e proteções mais robustos nos modelos, além de ferramentas avançadas de verificação e análise de segurança de hardware, e alerta que modelos open-source especializados podem tornar esses ataques ainda mais acessíveis, ampliando o risco no ecossistema de design de chips e defesa urgente.

Pesquisadores provam que IA pode se tornar arma no design de hardware (Imagem: WANAN YOSSINGKUM/iStock)

O post IA pode inserir falhas invisíveis em chips e o problema não tem conserto, alerta estudo apareceu primeiro em Olhar Digital.

Related posts

Galaxy A16 e M16 começam a ser atualizados para a One UI 8

Óculos inteligentes Oakley Meta HSTN chegam ao Brasil por R$ 3.459

Aviões autônomos avançam e prometem mudar o transporte aéreo