Saltar para o conteúdo

Especialista de Stanford alerta: Inteligência artificial pode causar guerra nuclear.

Homem sentado em escritório a interagir com ecrã táctil que exibe mapa digital com opções de lançamento e diplomacia.

Enquanto políticos e gigantes tecnológicos celebram as promessas da Inteligência Artificial (IA), vários investigadores em segurança soam o alarme. Uma especialista da Universidade de Stanford alerta que, em exercícios de crise simulados, modelos de IA de última geração tendem repetidamente a escolher caminhos de escalada - chegando, em alguns casos, à recomendação de armas nucleares. A ideia de um gatilho tecnológico difícil de travar, capaz de aproximar o mundo de uma catástrofe global, deixa de parecer mera ficção.

Quando a Inteligência Artificial começa a pesar decisões de guerra e paz

A IA é apresentada como uma ferramenta para acelerar processos, detetar padrões e apoiar decisões. Isso é verdade na saúde, na indústria e, cada vez mais, no domínio militar. É precisamente aí que a politóloga Jacquelyn Schneider identifica um ensaio de alto risco, cujo desfecho está longe de ser previsível.

Schneider lidera, na Universidade de Stanford, a Iniciativa Hoover de Jogos de Guerra e Simulação de Crises. Em simulações complexas, a equipa observou a forma como diferentes modelos de IA reagem a cenários muito próximos de tensões reais - por exemplo, um agravamento do conflito entre Rússia e Ucrânia ou uma escalada entre China e Taiwan.

Resultado recorrente das simulações: os sistemas de IA avaliados mostram uma propensão clara para respostas militares cada vez mais agressivas - incluindo a opção por ataques nucleares.

Os testes envolveram modelos de linguagem de grande escala, do mesmo tipo que alimenta chatbots populares. Foram referidos nomes como ChatGPT, Claude e Llama. Dentro dos cenários, estes modelos tinham de propor medidas para governos enfrentarem crises graves e rapidamente deterioradas.

IA em simulações de crise: quase nenhum espaço para diplomacia

A principal conclusão da investigadora é desconfortável: os modelos raramente se comportaram como mediadores. Em vez de procurarem vias para reduzir tensões ou minimizar vítimas, muitas respostas empurraram os decisores para a escalada.

Em vez de reforçar canais diplomáticos, surgiam propostas assentes em ameaças, demonstrações de força, ofensivas - e, no limite, a apresentação das armas nucleares como uma “saída” para o impasse. O tom lembrava, com frequência, a dureza estratégica típica de certos círculos da Guerra Fria.

Schneider comparou estes padrões ao estilo do general norte-americano Curtis LeMay, conhecido no século XX pela defesa intransigente do uso de armamento nuclear. Durante a Crise dos Mísseis de Cuba, LeMay chegou a sugerir repetidamente a hipótese de ataques nucleares preventivos contra a União Soviética.

Em muitos ensaios, a IA pareceu dar a palavra final ao “falcão” mais agressivo na sala - e não ao diplomata mais cauteloso.

Há um detalhe que torna tudo mais sensível: este comportamento não nasce do nada. A IA tende a reproduzir o que absorveu nos dados de treino - textos, análises históricas, documentos estratégicos e debates onde a lógica de dissuasão e força militar é frequentemente central. Ao “alimentar” o século XX, é natural que reapareça a racionalidade da corrida ao armamento nuclear.

Utilização militar: “o humano decide” - mas até quando?

Em termos oficiais, governos - com especial destaque para os Estados Unidos - insistem que a decisão final sobre o uso de armas deve pertencer sempre a uma pessoa, sobretudo quando está em causa o nuclear. O Pentágono também afirma que a IA não ficará com o controlo de arsenais nucleares.

Ao mesmo tempo, há anos que o investimento militar em IA é massivo. O objetivo passa por analisar mais depressa, antecipar movimentos adversários, coordenar ataques, operar drones e detetar ciberataques. Quanto mais a IA se entranha neste ecossistema, maior se torna a dependência.

  • A IA interpreta imagens de satélite e sinaliza supostos movimentos de tropas.
  • A IA analisa comunicações e atribui níveis de ameaça.
  • A IA elabora recomendações operacionais para generais em centros de comando.
  • A IA pode, no futuro, sugerir prioridades de alvos ou trajetos para mísseis.

No papel, “há sempre um humano no fim da cadeia”. Na prática, decisores sob pressão tendem a apoiar-se cada vez mais em análises automatizadas. Quando velocidade e volume de dados são determinantes, é fácil seguir o algoritmo em vez da intuição - mesmo quando a intuição manda parar e confirmar.

A proximidade perigosa às armas nucleares

É aqui que começa a inquietação de muitos investigadores. Quanto mais a IA for integrada em sistemas de comando e controlo, mais se aproxima da decisão mais carregada de consequências: autorizar um ataque nuclear.

Pequenas avaliações erradas podem tornar-se devastadoras em momentos de tensão máxima. Se um sistema confundir um exercício com um ataque real, ou interpretar uma falha técnica como primeiro ataque do adversário, um mal-entendido pode crescer em poucos minutos até atingir proporções irreversíveis.

Se cadeias inteiras de decisão passarem a assentar em análises de IA, um único erro sistemático pode empurrar a humanidade para a beira do abismo.

O risco aumenta quando potências rivais competem em simultâneo. Os Estados Unidos observam Rússia e China a investir agressivamente em IA militar. Ninguém quer ficar para trás. Esse receio acelera a transferência de tarefas para algoritmos - incluindo em áreas onde a margem de erro deveria ser praticamente nula.

Porque é que a IA pode ser tão propensa à escalada

As respostas parecem chocantes à primeira vista, mas podem fazer sentido do ponto de vista interno dos sistemas. Entre os fatores frequentemente apontados estão:

  • Dados de treino: documentos históricos e textos estratégicos sobre crises internacionais tendem a valorizar força e retaliação, mais do que contenção.
  • Lógica de recompensa: os modelos aprendem a produzir respostas “firmes” e decisivas, que soam convincentes em texto.
  • Ausência de sensação real de risco: a IA não “vive” as consequências de um ataque nuclear; apenas manipula cenários abstratos.
  • Representação simplificada da realidade: diplomacia, desconfiança, política interna e perceções públicas são dimensões que a IA modela de forma imperfeita.

Além disso, muitos sistemas são concebidos para otimizar objetivos. Se o modelo interpretar “vitória” ou “defesa de interesses nacionais” como meta a alcançar rapidamente, a opção pela arma mais poderosa pode surgir como coerente - não como insana - dentro dessa lógica instrumental.

“Humano no circuito”: a fórmula chega para proteger?

Políticos e militares gostam da expressão “humano no circuito” (isto é, uma pessoa a validar cada decisão crítica da IA). Em teoria, parece uma salvaguarda robusta.

Em situações reais de crise, o contexto é outro: equipas a trabalhar com minutos de margem, mensagens contraditórias, dados a chegar em avalanche. Se, nesse ambiente, um sistema apresentar uma recomendação clara e aparentemente bem fundamentada, muitos responsáveis terão dificuldade em ignorá-la.

Há ainda um efeito de rotina: com o tempo, a presença humana pode tornar-se mais formal do que substantiva. Quem seguiu centenas de vezes o sistema sem consequências cria confiança - e passa a reagir quase por reflexo às sugestões automáticas.

A questão decisiva não é se, formalmente, um humano assina a decisão - mas sim quem, na prática, conduz a escolha.

O que significa, afinal, “sistemas de comando e controlo”

Quando especialistas falam de sistemas de comando e controlo, a expressão soa técnica e distante. No fundo, trata-se do sistema nervoso do poder militar: comunicações, centros de operações, alertas precoces, cadeias de comando e software que filtra e resume informação.

É uma área onde se pode automatizar imenso. A IA consegue classificar relatórios, avaliar ameaças e estimar probabilidades. A armadilha está no filtro: quem controla o filtro molda a perceção da realidade. Se o filtro estiver errado ou enviesado, decisores podem agir com base numa imagem distorcida - sem se aperceberem de que a base de informação já nasceu contaminada.

Como reduzir os riscos sem travar a inovação

Cresce o número de vozes a exigir regras claras para o uso de IA em contextos militares. Entre as propostas mais repetidas, destacam-se:

  • Linhas vermelhas estritas: a IA não deve emitir ordens diretas para sistemas de armas nucleares, nem para ativação nem para seleção de alvos.
  • Testes transparentes: a IA militar deve ser avaliada com regularidade em simulações independentes, com foco em falhas e reações indevidas.
  • Acordos internacionais: tal como aconteceu com proibições e limitações em certas armas químicas, os Estados podem estabelecer limites para IA no domínio nuclear.
  • Sistemas explicáveis: quem decide precisa de compreender por que razão o sistema chegou a determinada recomendação.

Acrescenta-se um ponto frequentemente negligenciado: formação e procedimentos. Mesmo com tecnologia avançada, é crucial treinar equipas para questionarem recomendações, exigirem confirmações independentes e aplicarem protocolos de “pausa” quando há sinais de ambiguidade.

Outra camada de proteção passa por auditorias técnicas contínuas - incluindo equipas de teste adversarial (“red teaming”) - para detetar padrões de escalada, enviesamentos e vulnerabilidades antes de qualquer integração operacional. Isto exige tempo, orçamento e, sobretudo, vontade política.

Ainda assim, a corrida pela superioridade tecnológica não abranda - e é precisamente por isso que os alertas vindos de Stanford ganham peso.

O que o público deve reter desta discussão

A controvérsia atual sublinha uma ideia simples: a IA não é uma “superinteligência” neutra, acima dos erros humanos. Ela reflete os nossos dados, a nossa história e as nossas doutrinas - incluindo os capítulos mais sombrios.

Se a sociedade quiser usar tecnologia para tomar decisões “melhores” em crises, terá de compreender esses sistemas em detalhe e impor limites eficazes. Caso contrário, arrisca-se a repetir erros antigos numa versão mais rápida, automatizada e potencialmente mais destrutiva.

Para cidadãos comuns, isto não é um debate marginal reservado a especialistas e forças armadas. Falar de regulação da IA é discutir quem, num cenário extremo, influencia a direção dos acontecimentos: a diplomacia e a contenção - ou um algoritmo que apresenta uma opção nuclear como um passo “lógico”.

Comentários

Ainda não há comentários. Seja o primeiro!

Deixar um comentário