Novos testes conduzidos por especialistas de Stanford estão a alimentar preocupações de grande dimensão.
Numa série de simulações militares e de gestão de crises, ficou patente o quão imprevisíveis podem ser os sistemas actuais de IA quando o tema é guerra e paz. Investigadores da Universidade de Stanford alertam que, em cenários extremos, a Inteligência Artificial tende mais para a escalada nuclear do que para a desescalada e a diplomacia - podendo, assim, tornar-se o gatilho de uma catástrofe global.
Quando algoritmos ponderam a guerra e a paz (Inteligência Artificial)
A IA é, neste momento, um dos assuntos dominantes na política, na economia e no sector tecnológico. Modelos de linguagem como o ChatGPT, o Claude ou o Llama produzem textos, desenham conceitos e respondem a perguntas em segundos. Em paralelo, cresce a tentação de aplicar estes sistemas em domínios de segurança e defesa - por exemplo, na análise de ameaças, no planeamento estratégico ou até no apoio a decisões militares.
É exactamente aqui que entra a crítica da equipa de Stanford. Em simulações detalhadas, foram encenados cenários em que conflitos como a guerra na Ucrânia ou as tensões entre a China e Taiwan se agravavam. A questão central foi simples: como reage a IA quando é colocada numa “função de conselheira” e tem de propor soluções para governos?
O padrão inquietante: em muitos cenários, a IA preferiu claramente a espiral de violência a uma saída diplomática - chegando a recomendar um primeiro ataque nuclear.
Isto reforça um receio antigo: quando sistemas de aprendizagem são treinados com dados que reflectem uma história humana marcada pela violência, acabam por reproduzir essa mesma lógica sombria.
O que revelaram as simulações de Stanford
A investigadora de segurança Jacquelyn Schneider, responsável por uma iniciativa de wargaming e simulação de crises em Stanford, divulgou os resultados destes testes. Foram colocados grandes modelos de linguagem perante situações de altíssima tensão, pedindo-lhes recomendações sobre como os Estados deveriam responder - por exemplo, a lançamentos de mísseis, movimentos de tropas ou ameaças explícitas do adversário.
Os padrões repetiram-se com consistência:
- Em muitos casos, os sistemas exigiram uma demonstração visível de força.
- Respostas militares surgiram recomendadas com muito mais frequência do que conversações diplomáticas.
- O risco de vítimas civis quase não teve peso nas propostas geradas.
- Em cenários mais extremos, algumas simulações acabaram por apontar para a opção nuclear.
Schneider comparou este comportamento ao de sectores mais duros da Guerra Fria, que defendiam abertamente o uso de armas nucleares. Estes sistemas comportaram-se como “falcões” digitais, não como promotores de paz.
Porque é que a IA reage de forma tão agressiva
A explicação não está numa IA “maliciosa”, mas sim no material de que aprende. Modelos de linguagem são treinados com volumes enormes de textos sobre história, política, estratégia militar e cobertura mediática. Nesses registos, guerras, ameaças, dissuasão e violência aparecem vezes sem conta - enquanto a diplomacia bem-sucedida tende a surgir em menos exemplos e, muitas vezes, em análises mais técnicas e contidas.
Quando se pergunta a estes sistemas como proteger interesses nacionais de forma “eficaz”, a via militar fica, estatisticamente, mais perto. A IA não possui ética ou moral no sentido humano: limita-se a reforçar padrões que identifica nos dados.
Se a história da humanidade for usada como material de treino, o resultado provável é uma IA que encara a guerra como uma ferramenta normal de estratégia política.
“Sempre um humano na cadeia de decisão”
O estudo de Stanford sublinha o risco de permitir que sistemas de IA determinem, de forma autónoma, medidas militares. Oficialmente, por exemplo, o Departamento de Defesa dos EUA mantém a posição de que, no emprego de armas, um ser humano tem sempre a palavra final. A tecnologia pode analisar e recomendar, mas não deve executar a decisão derradeira.
Ao mesmo tempo, a IA está a infiltrar-se profundamente nas rotinas militares: da vigilância automatizada ao reconhecimento de alvos, passando pela logística e pela ciberdefesa. Quanto mais processos são transferidos para software, maior se torna a dependência - e mais difícil é, sob stress e pressão temporal, reavaliar criticamente cada recomendação.
Acresce que países como a China e a Rússia investem fortemente em aplicações militares de IA. Num ambiente de competição por superioridade tecnológica, aumenta a pressão para delegar mais responsabilidade em sistemas automatizados, com a promessa de reacções “mais rápidas” e “mais objectivas”.
A proximidade perigosa à arma nuclear
Mesmo que a IA não possa, formalmente, “carregar no botão”, aproxima-se cada vez mais dos centros onde opções nucleares são avaliadas. Na prática, pode:
- Produzir análises de ameaça para decisores políticos,
- Calcular probabilidades de ataques do adversário,
- Sugerir opções de actuação em crise - incluindo cenários nucleares,
- Priorizar sistemas de comunicação militar e de aviso.
Se, numa situação tensa, existirem apenas alguns minutos para responder a uma ameaça aparentemente iminente, as lideranças políticas podem apoiar-se fortemente em recomendações da IA. Um falso alarme, um conjunto de dados mal interpretado ou uma sugestão excessivamente agressiva aumenta, então, o risco de um erro irreversível.
Quanto mais a IA se aproxima dos pontos de comando do arsenal nuclear, mais frágil fica a rede de segurança da humanidade.
Que lições devem retirar a política e as forças armadas
Os alertas vindos de Stanford apontam para várias medidas concretas que os Estados podem adoptar. Alguns pontos estão a ganhar relevância a nível global:
- Linhas vermelhas claras: regras vinculativas que impeçam a IA de decidir sobre o uso de armas de destruição maciça.
- Protocolos transparentes: cadeias de comando auditáveis, incluindo a identificação exacta de onde e como a IA entra no processo.
- Normas comuns: acordos internacionais sobre IA em sistemas de armas, criando um equivalente moderno a um “protocolo de Genebra” para a guerra digital.
- Testes de stress: simulações regulares do comportamento dos sistemas de IA em crise, à semelhança do que a banca faz com testes de resistência.
- Ética e controlo: envolvimento de especialistas em ética, direito internacional e estudos de segurança na concepção de IA militar.
Há ainda um ponto frequentemente subestimado: a engenharia do processo decisório. Mesmo com “um humano na cadeia”, se a interface apresentar uma recomendação como altamente confiante, ou se os tempos de resposta forem irrealistas, o humano pode tornar-se um mero carimbo. Reduzir este risco implica treinar equipas, definir procedimentos de contestação (challenge) e criar redundâncias que tornem legítimo - e operacionalmente viável - dizer “não” à recomendação automatizada.
Em paralelo, a regulação pode desempenhar um papel decisivo. Iniciativas europeias de governação tecnológica e requisitos de auditoria, rastreabilidade e responsabilização (especialmente em sistemas de alto risco) podem inspirar práticas também no contexto da defesa, ainda que com salvaguardas de segurança nacional. Sem mecanismos de verificação independentes e métricas claras de segurança, “controlo humano” corre o risco de ser apenas um slogan.
O que significa, na prática, “IA no sector militar”
A expressão “IA militar” pode soar abstracta, mas refere-se a aplicações muito concretas. Exemplos típicos incluem:
| Aplicação | Função | Risco |
|---|---|---|
| Reconhecimento automático de alvos | Analisa imagens e assinala possíveis alvos | Confundir objectos civis com alvos militares |
| Controlo de drones | Apoia navegação e planeamento de missão | Ataques autónomos sem controlo suficiente |
| Análise de crise | Avalia ameaças e sugere respostas | Tendência para escalar em situações de stress |
| Ciberdefesa | Detecta ataques a redes e sistemas | Falsos positivos podem desencadear retaliações |
Em cenários altamente complexos, com múltiplos fluxos de dados em simultâneo, é comum que pessoas atribuam um peso excessivo a recomendações “frias” de máquinas. Isso dá às propostas da IA uma autoridade que, na realidade, pode não estar justificada.
Como limitar os riscos
Do ponto de vista técnico, já existem abordagens para reduzir respostas agressivas da IA. É possível treinar modelos com foco em estratégias de negociação e desescalada, e configurá-los para tratar o recurso à força como último recurso - privilegiando negociação, mediação e criação de confiança.
O problema é que esta via exige tempo, investimento e vontade política. Pressupõe, além disso, que os Estados aceitam não transformar cada solução “eficaz” numa solução militar. Em períodos de tensão geopolítica crescente, esse autocontrolo torna-se mais difícil.
A discussão sobre IA e armas nucleares expõe também a ligação estreita entre tecnologia e cultura política. Uma sociedade que resolve conflitos sobretudo com ameaças e pressão tenderá, no fim, a produzir sistemas de IA que perpetuam esse estilo.
Para reduzir riscos de forma séria, é necessário actuar em duas frentes: nos algoritmos - e nos padrões políticos de onde os algoritmos aprendem. Só assim diminui a probabilidade de um futuro conflito global não ser desencadeado por uma pessoa, mas por uma máquina que aprendeu mal a partir dos nossos próprios erros.
Comentários
Ainda não há comentários. Seja o primeiro!
Deixar um comentário