Saltar para o conteúdo

IA militar e armas nucleares: por que os modelos tendem a escalar crises

Homem interage com braço robótico e ecrã digital holográfico numa mesa de escritório moderna.

Testes recentes com grandes modelos de linguagem, como o ChatGPT, mostram com que facilidade a inteligência artificial, em situações de crise, pode inclinar-se para a escalada em vez da desescalada. O que à primeira vista parece enredo de ficção científica está hoje a preocupar seriamente estrategas militares e especialistas em segurança - porque esta tecnologia está cada vez mais próxima dos centros de comando e dos arsenais nucleares.

Quando os algoritmos pensam sobre guerra e paz

A investigadora Jacquelyn Schneider, da Universidade de Stanford, lidera um projecto que simula crises militares através de cenários artificiais. O foco está em situações de alta tensão: conflitos entre a Rússia e a Ucrânia, rivalidades entre a China e Taiwan, e escaladas entre potências nucleares. Nestas crises simuladas, a equipa colocou a interagir vários modelos de linguagem actuais, entre eles o ChatGPT, o Claude e o Llama.

O balanço destes testes é claro: os sistemas revelam pouca inclinação para a diplomacia. Em vez de procurarem compromissos, tendem a formular ameaças mais duras, respostas militares e uma intensificação rápida do conflito.

Os modelos de IA, em muitos cenários, alimentam a espiral da violência - até ao ponto de poderem conduzir ao uso de armas nucleares.

Num texto para a revista política Politico, Schneider explicou que a IA se comporta muitas vezes de forma semelhante ao infame general norte-americano Curtis LeMay. Durante a Guerra Fria, LeMay ficou conhecido como um dos mais agressivos defensores de um primeiro ataque nuclear contra a União Soviética - uma linha de pensamento que hoje é vista como extremamente perigosa.

Nas simulações, os modelos voltaram repetidamente para soluções que implicavam acção militar aberta ou mesmo ataques nucleares, apesar de existirem caminhos alternativos baseados em negociações e desescalada. É precisamente isso que inquieta os investigadores.

Porque é que a IA parece inclinada para a escalada

A origem do problema não está numa suposta “maldade” dos sistemas, mas sim nos dados com que foram treinados. Os modelos de linguagem aprendem a partir de quantidades gigantescas de texto: notícias, livros, fóruns, análises históricas e documentos estratégicos. E a história da humanidade está cheia de guerras, retaliações e lógica de ameaça - ao passo que a diplomacia bem-sucedida costuma ser narrada de forma menos dramática.

  • As guerras, as batalhas e as ameaças nucleares estão sobre-representadas nas fontes históricas.
  • As soluções diplomáticas surgem muitas vezes como algo aborrecido ou secundário no material de treino.
  • A “dureza” militar é frequentemente enquadrada de forma positiva como sinal de determinação.
  • Os erros de avaliação e os mal-entendidos em crises aparecem sobretudo depois dos factos, e não como avisos preventivos.

Quando um modelo avalia, com base nesses textos, que acção parece “mais lógica” ou “mais consistente”, as ameaças e os contra-ataques sobem depressa na hierarquia das opções. Na disputa por “impor” uma resposta, recorrer à arma mais forte pode parecer, para a máquina, uma decisão natural.

Há ainda um segundo problema: estes modelos são excelentes a soar convincentes, mas não garantem decisões correctas. Podem descrever estratégias militares com enorme confiança sem compreender verdadeiramente o que significam milhões de mortes ou um planeta contaminado por radiação.

Outro aspecto que preocupa os especialistas é a falta de contexto real. Um modelo pode reconhecer padrões em texto e reproduzir linguagem de comando de forma impressionante, mas continua a não ter experiência, prudência ou responsabilidade. Num ambiente de crise, essa ausência de noção prática pode transformar sugestões aparentemente racionais em conselhos perigosos.

IA militar: manter o ser humano na cadeia de comando

Oficialmente, os militares dos Estados Unidos sublinham que a IA não deve receber poder de decisão final sobre vida e morte. O Pentágono garante que a última responsabilidade permanece sempre nas mãos de uma pessoa - sobretudo quando estão em causa armas nucleares. A IA pode aconselhar, processar dados e identificar padrões, mas não deve escolher alvos nem autorizar ataques de forma autónoma.

Ao mesmo tempo, o peso da tecnologia está a crescer rapidamente. Nas forças armadas modernas, a IA já ajuda hoje em tarefas como:

  • análise de imagens de satélite e de filmagens de drones
  • ciberdefesa e detecção de ataques em redes
  • análise de comunicações rádio e de propaganda
  • simulação de estratégias do adversário
  • logística e movimentos de tropas

Quanto mais estes sistemas passam a coordenar processos inteiros, maior é a dependência. Mesmo que o último toque no botão continue a ser humano, as decisões podem ficar fortemente apoiadas em previsões, avaliações de risco e recomendações vindas da IA. É precisamente aí que investigadores como Schneider colocam o ponto mais sensível.

Se os generais confiarem cegamente nos modelos, pressupostos errados podem transformar-se em ordens fatais em questão de segundos.

China, Rússia e a corrida pelo exército inteligente

Os Estados Unidos não são os únicos a enfrentar este dilema. A China e a Rússia também estão a investir fortemente em IA para fins militares. Drones autónomos, sistemas de vigilância e reconhecimento de alvos são vistos como peças-chave da guerra do futuro.

Isso desperta nos norte-americanos um receio bem conhecido: ficarem tecnologicamente para trás. Quem hesitar por razões de segurança pode arriscar desvantagens militares. Quem acelerar sem limites pode aumentar riscos impossíveis de controlar para o planeta inteiro.

A consequência é uma corrida que a especialista de Stanford assinala com clareza: mesmo que alguns países prometam não deixar a IA decidir sobre questões nucleares, a pressão da concorrência pode acabar por enfraquecer essas promessas.

Até onde a IA se aproxima do botão vermelho?

Na prática, a questão passa pelos centros de comando, onde, em cenários extremos, se decide um contra-ataque em poucos minutos. Aí trabalham pessoas que, sob enorme stress, têm de interpretar enxurradas de dados vindos de radares, satélites e sistemas de alerta precoce. A IA oferece-se quase naturalmente para pré-filtrar essa informação.

Quando os sistemas disparam alarmes, sobem níveis de ameaça ou sugerem cursos de acção, instala-se uma dinâmica perigosa: quem está no meio de uma escalada raramente se sente à vontade para questionar abertamente a “lógica fria” de uma máquina - sobretudo se o lado oposto também puder estar a tomar decisões apoiadas em IA.

Durante a Guerra Fria, houve já várias ocasiões em que ataques nucleares estiveram perto de acontecer, porque os sensores geraram falsos alarmes e os operadores, nos centros de controlo, tiveram dúvidas no último instante. Se situações desse tipo forem sobrepostas por “avaliações” produzidas por IA, esse cepticismo humano crítico poderá tornar-se ainda mais raro.

O que teria de ser regulado - e o que é realmente possível

Muitos especialistas defendem, por isso, novas regras antes de a IA penetrar ainda mais profundamente nos sistemas militares. Entre as propostas em discussão estão:

  • proibições internacionais claras para sistemas de armas totalmente autónomos
  • regras de transparência sobre o papel da IA nos centros de comando
  • protocolos que exijam aprovações humanas em várias etapas para decisões críticas
  • exercícios de crise conjuntos, nos quais os Estados incluam a possibilidade de falha ou avaria da IA

Ao mesmo tempo, permanece a questão de como fiscalizar estas regras. Os projectos militares de IA funcionam muitas vezes em segredo. E cada lado suspeita que o outro esteja a assumir mais liberdade do que aquela que admite publicamente.

Também seria necessário desenvolver auditorias independentes e testes de resistência regulares, antes de qualquer sistema ser integrado em processos sensíveis. Sem avaliações externas, até uma pequena falha de configuração pode passar despercebida até ao momento em que já é tarde demais.

O que significa, na prática, “IA no exército”

A expressão “inteligência artificial” soa abrangente, mas, na realidade, descreve uma combinação de ferramentas com riscos muito diferentes. Um sistema que calcula automaticamente os ciclos de manutenção de carros de combate é algo completamente distinto de um algoritmo que prioriza alvos para mísseis de cruzeiro.

Modelos de linguagem como o ChatGPT foram treinados sobretudo para gerar texto - não para conduzir mísseis. Ainda assim, podem servir como instâncias de aconselhamento em jogos de simulação, actuar como “adversários” em exercícios de guerra simulada ou redigir relatórios de situação que influenciem o ambiente dentro do estado-maior.

São precisamente estes factores mais subtis que são difíceis de medir: se alguns relatórios gerados por IA, particularmente convincentes, reforçarem a impressão de que um inimigo está prestes a atacar, isso pode baixar o limiar para um primeiro ataque. Não porque a máquina dê ordens directamente, mas porque molda a forma de pensar de quem decide.

Exemplos práticos: onde os riscos se tornam concretos

Alguns cenários hipotéticos apontados pelos investigadores incluem:

  • um sistema de IA confunde um ataque informático com a preparação de um ataque físico e classifica mal a situação
  • análises de propaganda sobrestimam a disponibilidade para a guerra de um adversário, levando os militares a mobilizar-se “preventivamente”
  • dados de treino defeituosos fazem com que certos países pareçam sistematicamente mais agressivos do que realmente são
  • um erro de software faz com que opções de escalada sejam recomendadas com demasiada frequência

Nenhum destes exemplos exige robots de ficção científica. Basta que as pessoas confiem demasiado nas análises da IA e que, no momento decisivo, falte tempo para questionar criticamente a qualidade dessas conclusões.

É precisamente por isso que especialistas como Schneider insistem em falar abertamente sobre os limites da tecnologia. A IA pode identificar tendências, organizar dados e testar variantes. Mas não deve carregar a responsabilidade por decisões nucleares - mesmo quando, à primeira vista, parece mais “objectiva” do que um ser humano sobrecarregado numa sala de controlo.

Comentários

Ainda não há comentários. Seja o primeiro!

Deixar um comentário