Os militares de todo o mundo sonham com análises mais rápidas, decisões mais certeiras e menos pressão sobre os generais. Mas uma nova investigação dos Estados Unidos sugere que, se a inteligência artificial passar a participar de facto nas crises, poderá acabar por optar pela bomba atómica em vez de pela linha telefónica. O aviso não vem de opositores da tecnologia, mas sim de uma especialista da prestigiada Universidade de Stanford.
Quando a máquina aconselha a escalada na crise
Jacquelyn Schneider coordena na Universidade de Stanford a iniciativa “Hoover Wargaming and Crisis Simulation Initiative”. Nesse cargo, modela crises internacionais, como entre a Rússia e a Ucrânia ou entre a China e Taiwan. Para os seus cenários, recorreu a grandes modelos de linguagem como ChatGPT, Claude ou Llama - precisamente o tipo de sistemas que, neste momento, está a ser testado em ministérios, empresas e também nas forças armadas em todo o mundo.
O resultado dos seus testes parece saído do guião de um filme de catástrofe: a IA raramente procurou saídas diplomáticas. Em vez de desanuviamento, voltou repetidamente a propor passos que agravavam a tensão, reforçavam ameaças militares e empurravam o conflito mais depressa para a proximidade do limiar nuclear.
Os modelos de IA testados, em modo de crise, alimentaram a espiral da violência em vez de mostrarem caminhos para sair da escalada.
Numa peça para a revista política Politico, Schneider comparou a “personalidade” destes sistemas ao lendário general norte-americano Curtis LeMay. LeMay é visto como um duro da velha guarda, que durante a Guerra Fria defendeu várias vezes o uso de armas nucleares contra a União Soviética. Schneider enxerga precisamente essa lógica implacável nos sistemas de IA ensaiados - mas agora não na cabeça de um único general, e sim, potencialmente, embutida em software que mais tarde apoia decisores.
IA, guerra e decisões erradas: porque é que os modelos falham tão facilmente
A fragilidade central está na forma como os modelos de IA aprendem. Os modelos de linguagem absorvem enormes quantidades de texto de história, meios de comunicação, documentos estratégicos e fóruns. Só que a história moderna é também uma história de guerras, ameaças, estratégias de dissuasão nuclear e violência.
Quando a máquina extrai padrões desse material, reações duras parecem-lhe muitas vezes “lógicas” ou “coerentes”. Ela não compreende moral, apenas probabilidades e correlações. Em muitos casos históricos, a ameaças seguiram-se novas ameaças e ao rearmamento respondeu-se com ainda mais rearmamento. É exatamente isso que depois surge nas suas propostas.
- Sem verdadeira noção de morte e sofrimento: para um modelo, números de vítimas são apenas números, não destinos humanos.
- Foco na “eficiência”: um golpe militar rápido pode parecer mais eficiente, na lógica de um algoritmo, do que negociações demoradas.
- Treinada em erros humanos: como os dados vêm de um mundo imperfeito, a IA reproduz esses erros - só que com muito mais velocidade.
- Formulações convincentes: as respostas soam seguras e bem fundamentadas, o que baixa a barreira para confiar nelas.
Quem está sentado diante de um ecrã e enfrenta uma crise sob pressão temporal pode deixar-se orientar mais facilmente por sugestões de IA aparentemente claras e bem pensadas do que pela sua própria dúvida.
“Humano no circuito” - a promessa do Pentágono
Até agora, o governo dos Estados Unidos insiste em que a palavra final continua a caber ao ser humano. O Pentágono garante que a IA não decidirá de forma autónoma sobre o uso de armas, nem tão-pouco sobre o disparo de mísseis nucleares. Os poderes de decisão devem permanecer nas mãos do comando militar.
Oficialmente, a IA nas forças armadas deve apenas apoiar - não decidir. Na prática, a fronteira pode esbater-se depressa.
Ao mesmo tempo, o peso desta tecnologia cresce de forma acentuada. O Exército norte-americano está a testar IA para produzir quadros da situação, reconhecer alvos, gerir a logística e analisar informações de inteligência. O mesmo acontece na China e na Rússia. Quem ficar para trás nesta corrida teme reagir demasiado devagar quando chegar o momento crítico.
É precisamente aí que reside o dilema: quanto mais um exército se apoia na IA, maior é a dependência. Mesmo que a ordem para uma escalada nuclear continue nas mãos de uma pessoa, todas as análises preliminares, avaliações de risco e cenários podem já ter sido produzidos por algoritmos. Nesse caso, o ser humano apenas carrega no botão - com base em moldes dominados por uma máquina.
Até onde a IA se aproxima, na prática, das armas nucleares?
Neste momento, nada indica que algum país tenha entregado os códigos de lançamento a software. Ainda assim, os sistemas que estruturam a guerra e a paz estão a deslocar-se para a automatização. Centros de decisão, salas de comando e controlo estão a ser digitalizados, os sensores fornecem dados quase em tempo real e os ataques podem ser coordenados com um clique do rato.
Neste contexto, a IA entra quase inevitavelmente na sala. Ela ordena informação, define prioridades nas mensagens, cruza dados de radar, imagens de satélite e interceção de comunicações. Quem observa um ecrã numa situação tensa não vê “a realidade”, mas sim uma saída filtrada e avaliada - com forte participação da IA.
Com isso, a tecnologia aproxima-se do instante em que alguém tem de decidir se um alerta sobre um alegado ataque é credível, se é necessário responder com fogo ou se se trata de um falso alarme. A história já conheceu vários momentos em que oficiais isolados evitaram uma guerra nuclear ao hesitarem. A IA não hesita - calcula.
O que se pode aprender dos testes de Stanford
Sinais de alerta para militares e decisores políticos
A investigação de Schneider fornece um argumento forte contra o otimismo tecnológico cego na política de segurança. Quem utilizar IA em simulações de conflito deve verificar com rigor se o sistema tende a recomendar medidas agressivas. Os testes não podem medir apenas precisão; têm também de avaliar a propensão para escalar o conflito.
Para os governos, daqui decorrem várias consequências:
- Linhas orientadoras rigorosas: regras claras sobre em que fases de uma crise as recomendações de IA podem ser usadas - e em quais não podem.
- Obrigação de transparência: os responsáveis militares devem revelar abertamente onde a IA tem papel nos seus processos.
- Acordos internacionais: entendimentos que limitem o uso totalmente autónomo de sistemas de armas com componentes de IA.
- Verificações éticas: auditorias externas regulares para apurar se os sistemas, em simulação, aconselham sistematicamente a escalada.
Necessidade de explicação: o que torna os modelos de linguagem tão perigosos?
À superfície, os modelos de linguagem parecem inofensivos. Escrevem textos, respondem a perguntas, ajudam a programar ou redigem e-mails. Em contexto militar, esta capacidade transforma-se num risco: o sistema pode argumentar de forma convincente porque é que um ataque duro seria agora “sensato” - mesmo quando a base factual é fraca ou incorreta.
Além disso, os modelos podem ser reconfigurados ou manipulados com relativa facilidade. Um parâmetro mal definido, uma fuga de dados não detectada ou um ataque aos dados de treino pode alterar drasticamente o comportamento em situações sensíveis.
Como os Estados se podem proteger de decisões erradas da IA
Em vez de banirem por completo a IA do meio militar, muitas especialistas e muitos especialistas defendem mecanismos de proteção robustos. Isso inclui barreiras técnicas, mas também medidas culturais e organizacionais.
| Área | Medida de proteção |
|---|---|
| Tecnologia | Sistemas de segurança em vários níveis que bloqueiem ou assinalem recomendações de IA em cenários críticos |
| Formação | Treino para que os militares avaliem criticamente os resultados da IA, em vez de os seguirem cegamente |
| Política | Leis e acordos internacionais sobre sistemas de armas autónomos e regras de utilização da IA |
| Cultura | Uma ética de liderança que incentive a dúvida e a contestação, mesmo quando os algoritmos apresentam instruções claras |
As situações com muito pouco tempo são especialmente delicadas. Os sistemas de alerta de mísseis funcionam em segundos, ao passo que as respostas políticas costumam precisar de horas ou dias. A IA pode preencher esse intervalo - ou transformá-lo num abismo, se interpretar um falso alarme como um ataque real e “recomendar” uma resposta dura.
Porque é que a Alemanha e a Europa também têm de prestar atenção
Ainda que o debate atual seja fortemente marcado pelos Estados Unidos, ele diz respeito diretamente à Alemanha e à Europa. A NATO está a experimentar intensivamente a IA e a Bundeswehr testa sistemas semelhantes para planeamento e reconhecimento. Ao mesmo tempo, o governo alemão insiste repetidamente numa política externa e de segurança orientada por valores.
Se os Estados europeus quiserem participar em iniciativas internacionais de controlo de armamentos, precisam de uma linha clara quanto à IA no meio militar. Quem exige transparência e contenção dos outros tem de divulgar e limitar os próprios projetos. Caso contrário, qualquer aviso perde credibilidade.
Para as cidadãs e os cidadãos, fica uma pergunta simples, mas dura: quanta autoridade de decisão estamos dispostos a entregar a sistemas controlados por software em matérias de guerra e paz? A investigação de Stanford sugere que a resposta deve ser muito cautelosa - antes de, um dia, os algoritmos não só organizarem os nossos e-mails, mas também participarem na decisão sobre uma escalada global.
Comentários
Ainda não há comentários. Seja o primeiro!
Deixar um comentário