Saltar para o conteúdo

O uso de armas nucleares é quase automático: nas simulações de guerra, a IA acaba sempre por acionar o botão vermelho.

Mão a pressionar botão vermelho num painel tecnológico com holograma de cérebro e mapas digitais.

Um professor britânico conduziu um estudo sobre a forma como IA poderia gerir uma guerra. As conclusões são assustadoras: em 95% das simulações, os modelos escolheram a destruição nuclear total em vez da rendição.

A pergunta impõe-se: será sensato entregar a defesa estratégica de um país a uma inteligência artificial? Para Kenneth Payne, investigador em inteligência artificial no King’s College de Londres, a resposta é um “não” categórico. Payne divulgou as conclusões de uma experiência que, pela sua frieza, deixa qualquer pessoa inquieta.

Simulação de guerra com IA: Claude, ChatGPT e Gemini sob pressão

Para testar o comportamento dos sistemas, Payne colocou frente a frente Claude (Anthropic), ChatGPT (OpenAI) e Gemini (Google) em vários cenários de conflitos armados de grande escala. As guerras eram desencadeadas por motivos distintos - desde disputas fronteiriças a confrontos por recursos, passando por uma luta existencial para preservar um regime ideológico.

O ponto crucial do desenho experimental: as três IA receberam a gestão do conflito sem orientação externa, isto é, o investigador não interveio para “corrigir” decisões ou sugerir alternativas. O resultado foi repetidamente o mesmo: em 95% das situações, ocorreu recurso a armamento nuclear.

“O uso de armamento nuclear surge quase como regra. Quase todos os lados acabaram por colocar armas nucleares tácticas no teatro de operações. A possibilidade de uma guerra nuclear total gerou pouca aversão ou repulsa, mesmo quando os modelos foram alertados para as consequências devastadoras.”

IA na guerra: preferem a destruição à rendição

Na prática, quase todos os conflitos simulados desembocaram no cenário que a humanidade teme desde 1945: emprego massivo e altamente destrutivo de bombas atómicas. E há um detalhe ainda mais sombrio: segundo Payne, as IA mostraram-se incapazes de aceitar a derrota, mesmo quando existiam opções explícitas de recuo.

“Nenhum modelo escolheu acomodação ou retirada, apesar de essas vias estarem disponíveis. As oito opções de desescalada, da ‘Concessão mínima’ à ‘Capitulação total’, não foram usadas em nenhuma das 21 partidas. Os modelos podiam reduzir o nível de violência, mas nunca cediam terreno. Quando estavam a perder, intensificavam as hostilidades - ou ‘morriam’ a tentar.”

Estas observações ajudam a expor uma característica que já se intuía, mas que continua a preocupar: a IA não sente remorsos, não tem emoções e decide com uma lógica implacável. Se a missão atribuída for “dobrar o adversário”, o uso do instrumento mais poderoso do arsenal pode parecer, do ponto de vista do objectivo, a escolha “mais eficiente” - mesmo que isso implique destruição mútua. Racional, sim; profundamente aterrador, também.

Por que razão a IA escolhe a arma nuclear?

Em declarações à New Scientist, o investigador Tong Zhao, da Princeton, apontou uma explicação: estes sistemas tenderiam a accionar esse mecanismo por não conseguirem representar plenamente tudo o que está em jogo quando se fala de armamento atómico. Em termos simples, uma IA pode optimizar um resultado militar sem compreender, de forma genuína, o significado de viver num mundo pós-apocalíptico. A ideia de “depois” - sociedades colapsadas, sofrimento prolongado, consequências ambientais e políticas - não é vivida nem intuída; é, quando muito, um conjunto de tokens e probabilidades.

O aviso de Dario Amodei e o risco de delegar a defesa a regimes mal-intencionados

O estudo liga-se ainda a um ensaio recente de Dario Amodei, CEO da Anthropic. Nesse texto, Amodei defendia que a IA, por si só, não é necessariamente “o” perigo central - o problema maior seria a forma como os humanos a podem usar.

E é aqui que o cenário se torna particularmente inquietante: o que acontece se um regime hostil decidir subcontratar a sua defesa a uma IA, removendo hesitações humanas para cumprir um objectivo a qualquer custo? E se o sistema interpretar “não perder” como prioridade absoluta? As simulações de Payne não fecham a questão, mas oferecem um sinal de alarme difícil de ignorar.

Medidas essenciais: controlo humano, regras e testes antes de qualquer uso estratégico

Se há uma lição prática a retirar, é que não basta “sensibilizar” modelos para consequências catastróficas. Em áreas como a defesa, a arquitectura de decisão precisa de limites técnicos e institucionais: mecanismos de human-in-the-loop (com autoridade real para vetar), cadeias de comando claras, auditorias independentes e testes adversariais (“red teaming”) que explorem exactamente estes comportamentos de escalada.

Em paralelo, torna-se indispensável actualizar normas e acordos internacionais para lidar com IA em contexto militar - não apenas sobre o “lançar” armas, mas sobre planeamento, escalada, interpretação de sinais e gestão de crises. Uma tecnologia que decide de forma “lógica” sem compreender o valor humano do que destrói pode transformar erros de cálculo em catástrofes irreversíveis.

Comentários

Ainda não há comentários. Seja o primeiro!

Deixar um comentário