A guerra algorítmica: quando os algoritmos começam a decidir quem vive e quem morre

No passado dia 28 de fevereiro o mundo acordou com a notícia de bombardeamentos dos Estados Unidos da América (EUA) e de Israel sobre o Irão. A operação foi apresentada como uma ação preventiva contra o programa nuclear e o desenvolvimento de mísseis iranianos. Contudo, vários especialistas em direito internacional questionam a legitimidade desta intervenção, sublinhando a ausência de um enquadramento jurídico claro.

Segundo a comunicação social, em menos de 24 horas terão sido atingidos cerca de mil alvos militares e infraestruturas estratégicas iranianas. Um tipo de operação que, em conflitos anteriores, exigiria dias ou semanas de preparação. Parte dessa rapidez resulta do recurso a sistemas de Inteligência Artificial (IA), com capacidade para analisar grandes volumes de dados, identificar padrões, sugerir alvos e apoiar decisões operacionais.

O Irão respondeu com ataques automatizados dirigidos a infraestruturas críticas dos EUA, de Israel e de vários Estados do Golfo Pérsico. Também nesta resposta terão sido utilizadas ferramentas de IA para automatizar tentativas de acesso indevido a sistemas informáticos e amplificar campanhas de desinformação.

Alguns analistas começaram já a falar na primeira guerra algorítmica.

Sistemas de IA que geram texto, código ou imagens estão hoje a ser utilizados para escrever malware, automatizar ataques a sistemas informáticos e produzir narrativas adaptadas a públicos específicos. Tudo isto numa escala que torna cada vez mais difícil conter a origem dos ataques ou manter controlo sobre a sua propagação.

A guerra passa assim a ter uma natureza simultaneamente material e digital. Enquanto drones e mísseis guiados por sistemas inteligentes operam no terreno, ataques invisíveis dirigem-se contra redes elétricas, hospitais ou sistemas de comunicação.

Neste novo cenário, emerge uma questão cada vez mais relevante: o papel das grandes empresas tecnológicas no desenvolvimento das infraestruturas que sustentam estas capacidades.

Muitas das tecnologias hoje utilizadas têm origem em sistemas desenvolvidos por empresas privadas, cujas ambições combinam inovação tecnológica de longo prazo com visões estratégicas que ultrapassam o domínio estritamente comercial.

Quando os mesmos atores concentram influência relevante em áreas como a IA, a exploração espacial e as infraestruturas digitais críticas e, ainda que indiretamente, no apoio a operações militares, as fronteiras entre inovação civil, poder económico e poder estratégico tornam-se progressivamente mais difusas.

A guerra no Médio Oriente ocorre num momento em que o debate internacional sobre os riscos e implicações da IA se intensifica, incluindo no domínio militar. Nos EUA e em Israel, a integração acelerada de sistemas de IA no planeamento operacional, na seleção de alvos, na defesa antimíssil e nas operações de cibersegurança e ciberataques tem sido apresentada como condição necessária para preservar vantagem estratégica num contexto de competição tecnológica global cada vez mais intensa.

Alguns destes sistemas têm, contudo, estado no centro de controvérsias. O modelo Grok, desenvolvido pela empresa xAI de Elon Musk, deverá passar a operar nas redes do Pentágono no quadro de uma estratégia mais ampla de aceleração da utilização de inteligência artificial no setor da defesa norte-americano.

Segundo responsáveis do Departamento da Defesa, o objetivo é integrar progressivamente vários modelos de IA em redes militares classificadas e não classificadas através de uma plataforma interna designada GenAI.mil, disponibilizando estas ferramentas a milhões de militares e funcionários civis.

Ao mesmo tempo, o Grok tem sido alvo de críticas e investigações relacionadas com a criação de conteúdos problemáticos, incluindo deepfakes sexualizadas que aparentam envolver menores. Considerados potencialmente ilegais à luz do direito europeu, por poderem violar normas relativas à pornografia infantil e à divulgação não consentida de imagens íntimas, estes casos motivaram uma reação das autoridades

Perante estes casos, a Comissão Europeia ordenou à plataforma X a preservação de dados para avaliar a sua conformidade com o Digital Services Act (DSA), o regulamento europeu que estabelece regras para a responsabilidade das grandes plataformas digitais. Segundo a Euronews, o Grok tem sido alvo de reações regulatórias em vários países, incluindo investigações criminais, advertências formais e bloqueios em partes do Sudeste Asiático.

A coexistência destes dois planos, por um lado a integração acelerada da IA em infraestruturas militares e, por outro, as controvérsias sobre o seu funcionamento em ambientes civis, ilustra bem as tensões que atravessam o debate atual sobre estas tecnologias.

O Regulamento da IA da União Europeia (AI Act) exclui expressamente do seu âmbito os sistemas utilizados exclusivamente para fins militares, de defesa ou de segurança nacional. Assim, apesar de a União Europeia ter criado um dos quadros regulatórios mais exigentes do mundo para a utilização da IA em contexto civil, as aplicações diretamente ligadas à guerra permanecem fora desse regime harmonizado.

Cria-se assim um paradoxo regulatório: enquanto a Europa estabelece regras detalhadas para a utilização da IA em setores civis, da administração pública ao mercado digital, o domínio potencialmente mais sensível, associado ao poder militar e à violência organizada, permanece essencialmente fora desse enquadramento europeu.

Para os defensores da estratégia norte-americana, a integração de sistemas de IA na defesa é inevitável num mundo marcado por conflitos híbridos, ciberataques e competição tecnológica acelerada.

Para os críticos, porém, a questão central reside no facto de tecnologias desenvolvidas em ambientes privados, frequentemente orientadas por objetivos comerciais, poderem passar a influenciar decisões militares em que estão diretamente em causa vidas humanas.

Contudo, continuam por responder questões fundamentais: quem governa estes sistemas, com que objetivos e sob que mecanismos de controlo democrático. Quando algoritmos passam a influenciar decisões de vida e morte, a questão deixa de ser apenas tecnológica. Passa a ser uma questão ética, jurídica, política e de responsabilidade pública.

Num mundo em que os algoritmos começam a moldar a forma como observamos, analisamos e decidimos, o poder militar deixa progressivamente de ser exclusivamente humano.

E quando sistemas algorítmicos passam a influenciar, ou até a determinar, a seleção de alvos, aproximamo-nos de um cenário em que decisões sobre quem vive e quem morre podem ser mediadas por sistemas de IA.

E quando essas decisões passam a ocorrer à velocidade dos algoritmos, o risco é claro: o espaço para uma deliberação humana efetiva e responsável pode tornar-se cada vez mais reduzido.


© SOL