Saltar para o conteúdo

Ao usarem inteligência artificial em simulações de guerra, os governos preparam conflitos que já não serão directamente controlados por humanos.

Militar vê simulação de combate com drones em múltiplos ecrãs numa sala moderna de controlo.

De um lado do vidro, agentes fardados bebem café e lançam piadas sem grande convicção. Do outro, um campo de batalha simulado ganha forma em tempo real: enxames de drones, trajectórias de mísseis, cidades digitais a acender e a apagar no mapa. Não há gritos de soldados. Não há hesitações de pilotos. Quem realmente “transpira” é o armário de servidores.

A sala de briefing cheira a pó queimado, resultado de máquinas a trabalhar no limite. Linhas de código atravessam os monitores mais depressa do que alguém conseguiria ler em voz alta. Decisões que antes exigiam conselhos e reuniões de crise agora surgem em milissegundos, pontuadas em painéis impecáveis: “perdas aceitáveis”, “sucesso da missão”, “risco colateral”. Um coronel murmura que é apenas um teste. O olhar dele diz que não acredita nisso.

Algures nesse jogo de guerra silencioso, os humanos já perderam algo que não recuperam.

O dia em que a guerra deixou de precisar de nós em tempo real

Entrar num laboratório moderno de defesa lembra mais uma startup tecnológica do que um quartel: capuzes, sapatilhas, ecrãs por todo o lado. Engenheiros ajustam redes neuronais enquanto oficiais se inclinam por cima do ombro deles e fazem a pergunta mais crua e repetida: “Isto ganha?” Quase ninguém se detém na parte em que as pessoas começam a ser retiradas do circuito.

As simulações correm sem pausa, dia e noite. Milhares de batalhas virtuais, cada uma com pequenas variações - como um casino gigantesco aplicado à guerra. Os sistemas de IA experimentam manobras que nenhum comandante se atreveria a defender numa apresentação formal: sacrificar uma ala inteira de drones para baralhar sensores inimigos; deixar uma cidade-isco “arder” no ecrã para encobrir uma base escondida. Quanto mais radical é a opção, mais o sistema aprende.

Nessas salas, o futuro campo de batalha já não é um lugar. É um espaço de probabilidades. A vitória passa a ser uma percentagem, empurrada para cima por algoritmos cada vez mais rápidos. E, à medida que os modelos ficam melhores, começam a propor planos que os humanos dificilmente imaginariam sozinhos. A viragem silenciosa acontece quando líderes políticos começam a confiar em padrões que mal conseguem explicar.

Há números concretos a sustentar esta tendência. As Forças Armadas dos EUA realizam exercícios de grande escala, como o Project Convergence, alimentando sistemas de IA com fluxos contínuos de dados de sensores para coordenar artilharia, drones, satélites e forças terrestres. Em alguns testes, soluções de tiro geradas por IA chegaram em segundos, em vez dos muitos minutos necessários a equipas humanas. Em guerra, isso é uma eternidade retirada ao relógio.

A China fala abertamente em “guerra inteligentizada”, não apenas digitalizada. A doutrina aponta para conflitos em que a aprendizagem automática assume o apontamento de alvos, a logística e a deceção numa escala que nenhum estado-maior humano conseguiria acompanhar. A Europa financia projectos de “ala leal”: aeronaves com IA para voar ao lado de pilotos humanos e, um dia, operar sem eles. A mensagem repete-se em todo o lado: a vantagem pertence a quem automatizar mais e mais depressa.

No papel, as pessoas permanecem “no circuito”. Os comunicados oficiais adoram esta expressão. Na prática, quando os alertas piscam, as redes estão sob interferência e há mísseis a caminho, nenhum governante vai folhear 60 páginas de análise de risco. Vai ver uma recomendação destacada a verde ou a vermelho. E essa recomendação terá sido moldada por anos de jogos de guerra simulados, por uma IA treinada para vencer a qualquer preço, em mundos onde ninguém morre de verdade.

A IA no combate simulado não serve apenas para testar armas. Ela reprograma, pouco a pouco, a própria ideia do que é “boa” estratégia. Sistemas de aprendizagem automática são extraordinários a explorar opções estranhas que a doutrina tradicional descartava. Correm milhões de variações à procura de padrões que os humanos nem conseguem nomear. Se um algoritmo concluir que abdicar da defesa de uma cidade aumenta em 3% a probabilidade de vitória nacional, regista isso como um caminho válido.

Com o tempo, essa lógica sobe na cadeia. Academias e cursos de estado-maior passam a incorporar cenários gerados por IA. Planeadores militares ajustam pressupostos sobre escalada, sobre perdas “aceitáveis”, sobre ataques preventivos. E os líderes recebem briefings com gráficos limpos e trocas letais cuidadosamente arrumadas - sem os rostos por trás de cada ponto numa curva.

A pouco e pouco, o centro moral da decisão desloca-se. Em vez de “devíamos alguma vez fazer isto?”, a pergunta passa a ser “em que parâmetros isto se torna óptimo?”. Ensaios em caixas de areia virtuais normalizam comportamentos que antes seriam impensáveis. A parte mais fria é simples: quando a crise real rebentar, esses parâmetros já estarão incorporados no software.

Como impedir que os humanos desapareçam do circuito nos jogos de guerra com IA

A alavanca mais concreta que ainda existe está nas regras com que estes sistemas são desenhados. E isso começa muito antes de qualquer lançamento: na escolha dos dados de treino e nas restrições embutidas nos jogos de guerra. Cada simulação pode ser programada para atribuir um custo real a vítimas civis, infra-estruturas destruídas e caos prolongado - ou pode, discretamente, tratá-los como meros efeitos secundários.

Em termos práticos, significa introduzir atrito na máquina. Exigir validação humana para classes específicas de acção. Limitar a autoridade de sistemas para recomendar qualquer coisa que envolva opções nucleares, biológicas ou ciberataques contra hospitais e redes civis críticas. Definir linhas vermelhas que a IA não pode atravessar, por mais que o placar simulado insista que isso “vence”.

Há ainda um truque cultural: pôr cépticos na sala, por rotação. Não apenas generais e programadores, mas juristas, especialistas em ética e até pessoas que já viveram sob bombardeamento. Gente capaz de olhar para um cenário “bem-sucedido” e perguntar em voz alta: “Continuaria a chamar-lhe vitória se a sua família vivesse aqui?” Parece delicado. Não é.

Um aspecto raramente discutido, mas decisivo, é a segurança do próprio processo de simulação. Se os dados de treino forem contaminados, se houver manipulação de sensores, ou se alguém conseguir “envenenar” o modelo com exemplos discretos, o sistema pode aprender estratégias erradas com uma confiança perigosa. Auditorias independentes, registos imutáveis de decisões e equipas de red teaming (testes adversariais) deveriam ser tão obrigatórios quanto o teste de um motor de avião - porque, aqui, o “defeito” pode ser uma escalada real.

Também importa a interoperabilidade e a governação entre aliados. Quando sistemas diferentes - de países diferentes - partilham sinais, alvos e alertas, pequenos desacordos técnicos podem produzir grandes desastres políticos. Normas comuns, mecanismos de desligamento coordenado e protocolos claros para “pausar” automatismos durante crises diplomáticas não são pormenores: são travões.

A maioria dos cidadãos nunca verá estes laboratórios por dentro, mas a sua voz vai mais longe do que parece. A pressão pública já influencia a política de defesa, mesmo quando os responsáveis fingem o contrário. Quando armas autónomas entram nas manchetes, os líderes redescobrem, de repente, a palavra “responsabilidade”. Não é magia: é a política a sentir a temperatura.

Por isso, sim: cartas a deputados e governantes contam. Perguntas insistentes na comunicação social contam. Trabalhadores de tecnologia a recusarem contratos de defesa contam. Quanto mais pessoas exigirem proibições firmes sobre decisões letais totalmente autónomas, maior será o custo político de ultrapassar essa linha. Aconteceu com minas antipessoal e com armas químicas: ferramentas repugnantes acabam por ser estigmatizadas, mais cedo ou mais tarde.

Sejamos honestos: ninguém lê 300 páginas de relatórios estratégicos todos os anos. O que se espalha são ideias simples e medos simples: “Uma máquina vai decidir quem vive e quem morre?” “Alguém consegue explicar este sistema numa frase clara?” Se a resposta for não, a confiança desfaz-se depressa. Esse medo não é um defeito - é uma das poucas reacções sensatas que restam num debate afogado em jargão.

“O verdadeiro perigo não é um robô assassino fora de controlo”, disse-me baixinho um antigo analista da NATO. “É um sistema perfeitamente obediente, optimizado num mundo sem luto, e depois aplicado num mundo cheio dele.”

Pense numa pequena lista de verificação que devia assombrar qualquer conversa sobre IA e guerra:

  • Quem assume a culpa legal quando a “melhor jogada” da máquina mata as pessoas erradas?
  • Algum responsável eleito consegue explicar a lógica central do sistema que acabou de autorizar?
  • Os civis - não apenas soldados e programadores - participam no debate antes de a tecnologia ser colocada no terreno?

Todos já passámos por aquele momento em que o GPS nos mandou por uma estrada absurda e, mesmo assim, seguimos - porque discutir com a máquina parecia dar demasiado trabalho. Agora amplie esse reflexo a um campo de batalha. A confiança na automação instala-se em silêncio, “funcionou da última vez” após “funcionou da última vez”, até que discordar do algoritmo começa a soar quase irresponsável.

Viver com a ideia de que as guerras futuras podem fugir-nos das mãos

Depois de perceber o quão entranhada a IA está no planeamento militar, é difícil não reparar. Nota-se sempre que um líder fala de “ciclos de decisão mais rápidos” como se velocidade e sabedoria fossem inseparáveis. Ouve-se “dissuasão” e surge a dúvida: e se os sistemas concebidos para evitar a guerra acabarem por tropeçar nela, avançando mais depressa do que qualquer tentativa humana de carregar em pausa?

Isto não é um apelo para desligar satélites ou deitar fora algoritmos. O mundo não vai regressar a mapas de papel e rádios de campanha. O que continua em aberto é o espaço entre a capacidade bruta e aquilo que, colectivamente, aceitamos tolerar: se admitimos um mundo em que governos preparam conflitos que ninguém, na prática, conduzirá em tempo real; ou se traçamos linhas humanas - imperfeitas, talvez estranhas, mas ainda assim linhas.

Talvez o pensamento mais inquietante seja também o mais honesto: o campo de batalha do futuro pode parecer anticlimático visto do sofá. Sem declarações dramáticas. Apenas falhas, sinais mal interpretados, respostas automatizadas a empilharem-se umas sobre as outras, depressa demais para qualquer sala de ministros acompanhar. E, algures, muito antes do alerta de última hora no telemóvel, a escolha crítica já terá sido feita por código treinado numa sala silenciosa e sem janelas.

Ponto-chave Detalhe Interesse para o leitor
Jogos de guerra com IA moldam a doutrina Conflitos simulados ensinam forças armadas a favorecer estratégias optimizadas por máquinas Ajuda a perceber como “testes” de hoje podem definir guerras reais amanhã
Humanos arriscam tornar-se carimbos de borracha Líderes validam recomendações de IA que não compreendem totalmente Levanta questões duras sobre responsabilidade e controlo democrático
A pressão pública ainda conta Normas, leis e estigma podem travar sistemas letais totalmente autónomos Mostra onde a sua voz ainda pode influenciar a trajectória desta tecnologia

Perguntas frequentes (FAQ)

  • Já existem armas autónomas em uso hoje? Sim. Já há sistemas capazes de seleccionar e atacar alvos depois de activados, sobretudo na defesa aérea e em munições de permanência (munições errantes). Ainda assim, os Estados tendem a insistir que permanece um humano algures no circuito.
  • Porque é que os militares pressionam tanto para usar IA na guerra? Pela velocidade, pela vantagem percebida face a rivais e pela promessa de menos baixas do próprio lado - factores muito atractivos para planeadores sujeitos a orçamentos apertados e pressão política.
  • O direito internacional pode mesmo limitar armas de IA? Pode, desde que os Estados sintam pressão diplomática e pública suficiente. As proibições de lasers cegantes e de minas antipessoal mostram que até ferramentas poderosas podem ser restringidas.
  • O principal risco é um “robô assassino” descontrolado? O risco maior é o de sistemas a funcionar “bem”, mas a interagir com política humana confusa e imprevisível, acelerando crises mais depressa do que os líderes conseguem reagir.
  • O que pode uma pessoa comum fazer de forma realista? Apoiar organizações que monitorizam armas autónomas, pressionar representantes para estabelecer linhas vermelhas claras e recusar tratar isto como um debate puramente técnico reservado a especialistas.

Comentários

Ainda não há comentários. Seja o primeiro!

Deixar um comentário