Uma das maiores preocupações de segurança da atualidade diz respeito ao eventual uso da inteligência artificial para o controle de armas nucleares. Muitos argumentam que isso representaria um enorme risco para o mundo todo.
A preocupação é tão real que diversos compromissos globais já foram firmados na tentativa de evitar que isso aconteça. No entanto, segundo especialistas da área, essa mistura é inevitável e precisamos estar prontos para este cenário.

Ataques nucleares não são decisões individuais
- De acordo com uma reportagem do portal Wired, lançar uma arma nuclear não é tão simples quanto apertar um botão.
- O comando e controle nuclear é uma intrincada teia de radares de alerta precoce, satélites e outros sistemas de computador monitorados por seres humanos.
- Se o presidente de um país ordenar o lançamento de um míssil balístico intercontinental, dois seres humanos devem girar as chaves ao mesmo tempo em um silo individual para lançar a bomba nuclear.
- Isso significa que um ataque nuclear é o resultado final de uma centena de pequenas decisões, todas elas tomadas por humanos.
- Mas o que aconteceria se a IA assumisse parte desse processo?
Leia mais
- Dona do ChatGPT vai usar IA para pesquisa com armas nucleares
- China e EUA estabelecem acordo para que IA não controle armas nucleares
- O estudante que construiu um reator nuclear caseiro usando IA

IA não é capaz de avaliar um cenário como um todo
O que deixa os especialistas preocupados não é a possibilidade de uma inteligência artificial maligna dar início a uma guerra nuclear, e sim a criação de vulnerabilidades a partir da automatização de parte do sistema de lançamento de armas nucleares. Estas brechas de segurança poderão ser exploradas por outros países, aumentando os riscos de eventuais lançamentos indesejados de bombas nucleares.
É por isso que muitos criticam a ideia de integrar a IA aos processos de decisão. Um dos pontos levantados é que a ferramenta não pode ser responsabilizada quando falha, além do fato da tecnologia estar presa em uma série de limites estabelecidos.

Isso significa que a inteligência artificial não tem a capacidade de avaliar o cenário como um todo. A reportagem cita o caso de Stanislav Petrov, tenente-coronel das Forças de Defesa Aérea Soviéticas que salvou o mundo em 1983 quando desconfiou de um alerta dos sistemas de alerta nuclear da União Soviética.
Naquela oportunidade, Petrov usou sua experiência para desacreditar o radar que lhe dizia que os EUA haviam lançado cinco mísseis. Isso evitou uma resposta soviética a um ataque que nunca existiu, salvando o planeta de uma guerra nuclear. Será que uma IA teria agido da mesma forma?
O post Misturar IA e armas nucleares não é uma boa ideia apareceu primeiro em Olhar Digital.