Armas autônomas (killer robots): por que a ONU tenta regular

Nos conflitos armados atuais, como nas guerras entre Rússia e Ucrânia e nas ofensivas conjuntas de Estados Unidos e Israel contra o Irã, o uso de inteligência artificial no campo de batalha tem ganhado destaque. A tecnologia está no planejamento de ataques e em armas autônomas.

Também conhecidos como “killer robots”, os armamentos avançados incluem, principalmente, drones sem operadores humanos. Apesar das vantagens, a presença contínua desses recursos em cenários de batalha levou a Organização das Nações Unidas (ONU) a pedir a regulação e até a proibição de tais máquinas.

O que são armas autônomas

Chamados de “Lethal Autonomous Weapon Systems” (LAWS) ou “Sistemas de Armas Autônomas Letais” em tradução livre, esses dispositivos de guerra possuem capacidade de identificar e atacar alvos sem depender de controle humano. Para tanto, utilizam sensores e IA, entre outras tecnologias.

Os mecanismos integrados às armas registram e analisam dados do campo de batalha, entendendo o ambiente e diferenciando pessoas de veículos e objetos. Com base nessas informações, os sistemas automatizados selecionam alvos e tomam a decisão de atacar ou não por conta própria.

Essa categoria é representada principalmente pelos drones autônomos. (Imagem: NiseriN/Getty Images)

Inicialmente restritos à ficção, os robôs de combate aparecem em diferentes formatos, como drones alimentados com IA, submarinos não tripulados e outros tipos de veículos autônomos. Até mesmo robôs humanoides para usos militares já foram testados.

É importante destacar que as versões mais avançadas da tecnologia bélica ainda não foram totalmente implementadas. Porém, os drones autônomos, que localizam alvos e disparam mísseis, estão entre as armas mais usadas nos conflitos recentes.

Diferença entre armas automatizadas e autônomas

Em geral, os equipamentos da guerra moderna são classificados em três categorias. Na primeira e mais básica, o sistema localiza o alvo e se prepara para o ataque, mas requer a aprovação humana explícita para o disparo.

Na intermediária, a máquina pode iniciar o ataque, mas um operador humano consegue interromper a ação. Já na terceira categoria, os killer robots operam sem depender de ordens, representando a mais avançada e controversa versão dos LAWS.

As armas automatizadas dependem da operação humana. (Imagem: Onfokus/Getty Images)

Ou seja, a primeira e a segunda categoria são consideradas automatizadas ou automáticas, pois seguem um ciclo predefinido e exigem ativação do operador. Sistemas de defesa que lançam mísseis após a detecção e metralhadoras são exemplos disso.

Por sua vez, a última conduz operações militares complexas autonomamente, localizando e atacando alvos de maneira independente, com o auxílio da IA, como os drones kamikaze. Como a intervenção humana pode ser nula, ela alimenta debates sobre ética na guerra.

Como a inteligência artificial é usada nesses sistemas

Os robôs de combate são resultado de uma grande combinação de tecnologias, como sensores que monitoram o ambiente, sistemas LiDAR gerando mapas 3D e câmeras térmicas. Dependendo do tipo pode haver, ainda, radares para identificar movimentos.

Todos esses componentes geram uma extensa quantidade de informações para o panorama completo e em tempo real do local. Sem operadores, o processamento é feito por algoritmos de IA treinados em amplos conjuntos de dados.

A tecnologia diferencia, em milissegundos, civis de soldados, carros de equipamentos de guerra e daí por diante.

Decisões sem intervenção humana

Nos armamentos com IA, os modelos de linguagem fazem as avaliações de ameaças. Eles consideram aspectos como o perigo representado pelo alvo, as movimentações e o valor da ação, entre outros, para decidir sobre o ataque.

Depois de analisar tudo isso, em segundos, a IA decide sem qualquer intervenção humana. Além da rapidez, outro diferencial é a ausência de julgamento ético, o que representa um grande perigo, na visão dos críticos.

Riscos para civis e conflitos armados

Na guerra moderna, o uso de armas com capacidade de decidir autonomamente oferece vantagens estratégicas. No entanto, esses sistemas levantam preocupações quanto à segurança, pois assim como os bots convencionais, a tecnologia de combate também pode errar.

Se a IA alucinar durante a missão, existe a chance de confundir alvos, mirando em civis ou trocando armazéns de armas por hospitais ou escolas, lançando mísseis no prédio errado. A tragédia pode ser maior se envolver enxames de drones autônomos.

Os enxames de drones autônomos tornam a tecnologia ainda mais poderosa. (Imagem: onurdongel/Getty Images)

Esses grupos de aeronaves atingem diversos alvos simultaneamente. Segundo a ONU, isso fere os princípios de proporcionalidade e precaução inseridos no Direito Internacional Humanitário (DHI), que limita os efeitos dos conflitos armados.

Além disso, há outro perigo a se considerar: a segurança cibernética. Caso invasores acessem sistemas controlados por adversários, poderiam reprogramar as armas, fazendo-as se voltarem contra os operadores originais.

Por que a ONU tenta regular os killer robots

Um dos principais opositores dos robôs assassinos no campo de batalha, o Secretário-Geral da ONU, António Guterres, já abordou os riscos da tecnologia em várias ocasiões. Em um relatório de 2025, ele apontou a incapacidade da IA de respeitar o princípio da distinção como um dos maiores problemas.

Conforme o chefe das Nações Unidas, a inteligência artificial é propensa a produzir resultados distorcidos ao absorver vieses. Na hora de distinguir entre civis e militares, o gênero, a raça e a idade são analisados pelos sistemas autônomos, podendo levar a decisões equivocadas.

Por isso, Guterres defende o controle humano para evitar erros e pediu a proibição das ferramentas. “Não há lugar para sistemas de armas autônomas letais em nosso mundo. Máquinas que possuem o poder e a capacidade de tirar vidas humanas sem controle humano devem ser proibidas pelo direito internacional”, declarou.

Debates internacionais sobre regulamentação

Desde meados da década passada, membros da ONU têm considerado regulamentar LAWS. Os debates acontecem no âmbito da Convenção sobre Certas Armas Convencionais (CCW), que trata da possibilidade de violação do direito humanitário.

Iniciativas como “Pacto para o Futuro” e “Stop Killer Robots” são algumas das mais recentes. Porém, as conversas ainda não avançaram, devido a dúvidas sobre o que caracteriza sistemas autônomos e como funcionaria o controle humano mais significativo.

Guterres alertou sobre a necessidade de urgência da regulamentação, diante do uso cada vez maior da tecnologia na guerra moderna. “O tempo está se esgotando para tomarmos medidas preventivas”, ressaltou.

António Guterres é um dos maiores opositores dos armamentos com IA. (Imagem: Michael M. Santiago/GettyImages)

Desafios éticos e legais no uso de Killer robots

De acordo com a ONU, o primeiro caso de armas autônomas atacando pessoas sem envolvimento com guerras ocorreu em 2021. Na ocasião, civis se tornaram alvo de um drone sem operador humano na Líbia, incidente que acendeu, de vez, o alerta em relação aos perigos dessa tecnologia.

Em um caso como esse, quem seria o responsável pelo erro da máquina? O desenvolvedor, que criou o código do sistema, a fabricante da aeronave não tripulada ou o comando militar que decidiu implementar o mecanismo?

Nas discussões sobre a regulamentação internacional das armas que funcionam de maneira autônoma, essa é uma das dúvidas que dificultam a criação de leis rígidas. Países como Nova Zelândia e Áustria estão entre os que defendem regras rigorosas, incluindo a proibição total.

Por outro lado, EUA, China, Rússia e Israel opõem-se às restrições, argumentando que os armamentos com IA serão cruciais nos conflitos futuros.

Onde essas tecnologias já são utilizadas

Mesmo com os riscos das armas autônomas na guerra, vários países desenvolveram ou implementaram essas máquinas. O drone turco Kargu-2, que opera em modo autônomo buscando e atacando alvos, é um dos exemplos. Ele teria sido usado no conflito na Líbia, citado acima.

Também há o drone russo ZALA KYB, funcionando sem auxílio humano direto, e o israelense Harop, capaz de voar por horas aguardando para atacar. Outro destaque é o Boeing MQ-28 Ghost Bat, que atua ao lado de outras aeronaves militares e deve ser adotado pela Austrália.

Em meio aos debates sobre ética na guerra, a tecnologia é usada nos conflitos atuais. (Imagem: Olena Bartienieva/Getty Images)

Atualmente, o conflito entre Rússia e Ucrânia se tornou o maior campo de teste da nova tecnologia bélica. Relatórios sugerem que a maioria das aeronaves não tripuladas ucranianas têm algum nível de automação, atraindo o interesse dos EUA, com as tropas russas também desenvolvendo sistemas inovadores.

Sabia que os drones autônomos podem ser úteis, ainda, para a astronomia? Descubra como eles ajudam a procurar meteoritos que caem na Terra.

Related posts

Nier: Automata e mais jogos de Xbox com até 90% OFF; confira

Reorganização é a inovação que sua empresa está procurando

The Madison: entenda o final da série e a grande reviravolta que ele traz