Os campos de batalha modernos tornaram-se um terreno fértil para o armamento experimental de IA

3 de julho de 2024

  • As aplicações militares da IA estão a proliferar em todo o mundo, apesar dos esforços para as travar
  • Todas as potências militares estão preocupadas com a possibilidade de ficarem para trás nesta nova corrida ao armamento
  • As provas e observações dos conflitos modernos revelam a dimensão do risco

À medida que os conflitos se sucedem na Ucrânia e no Médio Oriente, o campo de batalha moderno tornou-se um campo de ensaio para a guerra movida a IA.

Dos drones autónomos aos algoritmos de previsão de alvos, os sistemas de IA estão a remodelar a natureza dos conflitos armados.

Os EUA, a Ucrânia, a Rússia, a China, Israel e outros países estão envolvidos numa corrida ao armamento da IA, disputando a supremacia tecnológica num cenário geopolítico cada vez mais volátil.

À medida que surgem estas novas armas e tácticas, surgem também as suas consequências.

Enfrentamos agora questões críticas sobre o futuro da guerra, o controlo humano e a ética de confiar decisões de vida ou morte a máquinas.

A IA pode já ter desencadeado uma escalada militar

Em 2017, Projeto Maven representou o principal esforço do Pentágono para integrar a IA nas operações militares. O seu objetivo é permitir a identificação e o seguimento de alvos em tempo real a partir de imagens de drones sem intervenção humana.

Embora o Project Maven seja frequentemente discutido em termos de análise de imagens de câmaras de drones, as suas capacidades vão provavelmente muito mais longe.

De acordo com a organização sem fins lucrativos Investigação da Tech InquiryO sistema de IA também processa dados de satélites, radares, redes sociais e até activos inimigos capturados. Esta vasta gama de dados é conhecida como "inteligência de todas as fontes".

Em março de 2023, ocorreu um incidente militar quando um drone americano MQ-9 Reaper colidiu com um caça russo sobre o Mar Negro, provocando a queda do drone.

Pouco antes desse incidente, a National Geospatial-Intelligence Agency (NGA) confirmou a utilização da tecnologia do Projeto Maven na Ucrânia.

O Tenente-General Christopher T. Donahue, comandante do XVIII Corpo Aerotransportado, mais tarde afirmou muito claramente sobre o conflito Ucrânia-Rússia: "No final do dia, este tornou-se o nosso laboratório".

O Projeto Maven, na Ucrânia, envolveu sistemas avançados de IA integrados no Radar de Abertura Sintética (SAR) Lynx dos MQ-9 Reapers. Como tal, a IA pode ter sido fundamental para a colisão do drone.

Drone
Na manhã de 14 de março de 2023, um caça russo Su-27 interceptou e danificou um drone MQ-9 Reaper dos EUA, o que resultou na queda do drone no Mar Negro. Foi o primeiro confronto direto entre as forças aéreas russas e norte-americanas desde a Guerra Fria, o que representou uma escalada significativa das tensões militares entre as duas nações. Fonte: Força Aérea dos EUA.

No rescaldo, os EUA convocaram o embaixador russo em Washington para expressar as suas objecções, enquanto o Comando Europeu dos EUA considerou o incidente "inseguro e pouco profissional".

A Rússia negou a ocorrência de qualquer colisão. Em resposta, os EUA reposicionaram alguns aviões não tripulados para monitorizar a região, o que a Rússia protestou.

Esta situação apresentava a possibilidade ameaçadora de os sistemas de IA influenciarem as decisões militares, contribuindo mesmo para uma escalada imprevista dos conflitos militares.

Como pergunta o Tech Inquiry, "vale a pena determinar se o Projeto Maven contribuiu inadvertidamente para uma das escaladas militares mais significativas do nosso tempo".

Campos de minas éticos

O desempenho do Projeto Maven tem sido bastante inconsistente até à data.

De acordo com Dados da Bloomberg citados pelo Independente de KievAo utilizar vários tipos de dados de imagem, os soldados conseguem identificar corretamente um tanque em 84% das vezes, enquanto a IA do Projeto Maven está mais perto de 60%, com o número a cair para 30% em condições de neve".

Embora as implicações éticas da utilização da IA para tomar decisões de vida ou de morte na guerra sejam profundamente preocupantes, o risco de mau funcionamento introduz um aspeto ainda mais assustador nesta corrida tecnológica ao armamento.

Não é apenas uma questão de saber se devemos utilizar a IA para atingir seres humanos, mas também se podemos confiar que estes sistemas funcionarão como previsto no nevoeiro da guerra.

O que acontece quando os civis próximos são identificados como alvos e destruídos de forma autónoma? E se o próprio drone se descontrolar e avariar, viajando para ambientes em que não está treinado para operar?

Neste contexto, o mau funcionamento da IA não é apenas uma falha técnica - é um potencial catalisador de uma tragédia a uma escala inimaginável. Ao contrário dos erros humanos, que podem ter um alcance limitado, o erro de um sistema de IA pode levar a uma carnificina generalizada e indiscriminada numa questão de segundos.

Já foram assumidos compromissos no sentido de travar estes desenvolvimentos e de manter as armas guardadas a sete chaves, como demonstrado quando 30 países aderiram US guarda-corpos sobre tecnologia militar de IA.

O Departamento de Defesa dos EUA (DoD) também lançou cinco "princípios éticos da inteligência artificial" para uso militar, incluindo "O pessoal do DoD exercerá níveis adequados de julgamento e cuidado, mantendo-se responsável pelo desenvolvimento, implantação e utilização das capacidades de IA."

No entanto, os desenvolvimentos recentes indicam uma desconexão entre estes princípios e a prática.

Por um lado, é provável que a tecnologia infundida com IA já seja responsável por incidentes graves fora do seu âmbito de ação. Em segundo lugar, o grupo de trabalho de IA generativa do DoD envolve a externalização para empresas privadas como a Palantir, a Microsoft e a OpenAI

A colaboração com entidades comerciais que não estão sujeitas à mesma supervisão que as agências governamentais lançou dúvidas sobre a capacidade do DoD para controlar o desenvolvimento da IA.

Entretanto, o Comité Internacional da Cruz Vermelha (CICV) iniciou debates sobre a legalidade destes sistemasnomeadamente no que respeita ao Princípio da "distinção" da Convenção de Genebraque obriga a distinguir entre combatentes e civis. 

Os algoritmos de IA são apenas tão bons como os seus dados de treino e regras programadas, pelo que podem ter dificuldades com esta diferenciação, especialmente em condições dinâmicas e imprevisíveis do campo de batalha.

Como indica o incidente com o drone do Mar Negro, estes receios são reais. No entanto, os líderes militares de todo o mundo continuam optimistas em relação às máquinas de guerra equipadas com IA. 

Não há muito tempo, um caça F-16 alimentado por IA manobrou melhor que os pilotos humanos numa demonstração de teste.

O Secretário da Força Aérea dos EUA, Frank Kendall, que experimentou-o em primeira mãoO Comissário da UE para a Segurança e a Defesa, Carlos Alberto, resumiu a inércia em torno da tecnologia militar de IA: "É um risco para a segurança não a ter. Nesta altura, temos de a ter".

À primeira vista, trata-se de uma confissão sombria.

Apesar dos milénios de guerra e das suas consequências devastadoras, a simples ideia de estar um passo atrás do "inimigo" - esta ansiedade primordial, talvez profundamente enraizada na nossa psique - continua a sobrepor-se à razão.

Armamento de IA desenvolvido internamente

Na Ucrânia, jovens empresas como a Vyriy, a Saker e a Roboneers estão a desenvolver ativamente tecnologias que esbatem a ténue linha entre a tomada de decisões por humanos e por máquinas no campo de batalha.

A Saker desenvolveu um sistema de mira autónomo que permite identificar e atacar alvos até 25 milhas de distância, enquanto a Roboneers criou uma torre de metralhadora telecomandada que pode ser operada com um controlador de jogo e um tablet.

Sobre este novo estado da guerra moderna alimentada por IA, o New York Times seguiu recentemente Oleksii Babenko, 25 anos, diretor executivo do fabricante de drones Vyriy, que apresentou a mais recente criação da sua empresa. 

Numa demonstração real, Babenko conduziu uma mota a toda a velocidade enquanto o drone o seguia, sem qualquer controlo humano. Os jornalistas viram a cena desenrolar-se num ecrã de computador portátil. 

O quadrocóptero avançado acabou por apanhá-lo e, nas palavras dos repórteres, "se o drone estivesse armado com explosivos e se os seus colegas não tivessem desativado o rastreio autónomo, Babenko teria morrido". 

À semelhança da Ucrânia, o conflito israelo-palestiniano está a revelar-se um foco de investigação de IA militar.

As armas experimentais com IA incorporada ou semi-autónomas incluem quadricópteros telecomandados armados com metralhadoras e mísseis e o "Jaguar," um robô semi-autónomo utilizado na patrulha das fronteiras.

Os militares israelitas também criaram torres alimentadas por IA que estabelecem o que designam por "zonas de morte automatizadas" ao longo da fronteira de Gaza.

Armas de IA
A natureza autónoma do Jaguar é revelada pela sua torre e câmara montada.

Talvez o mais preocupante para os observadores dos direitos humanos sejam os sistemas automatizados de geração de alvos de Israel. "O Evangelho" foi concebido para identificar alvos de infra-estruturas, enquanto que "Lavanda" centra-se na criação de listas de alvos humanos individuais.

Outro sistema, sinistramente denominado "Onde está o papá?"O sistema de vigilância, que é utilizado para localizar militantes suspeitos quando estes estão com as suas famílias.

A agência noticiosa israelita de esquerda +972, em Telavive, admitiu que estes sistemas causaram quase certamente vítimas civis.

O caminho a seguir

À medida que a tecnologia de IA militar avança, a atribuição de responsabilidades por erros e falhas torna-se uma tarefa intratável - um vazio moral e ético em espiral em que já entrámos. 

Como podemos evitar um futuro em que matar é mais automatizado do que humano e a responsabilidade se perde num nevoeiro algorítmico?

Os acontecimentos actuais e a retórica não inspiram cautela. 

Junte-se ao futuro


SUBSCREVER HOJE

Claro, conciso e abrangente. Fique a par dos desenvolvimentos da IA com DailyAI

Calças de ganga Sam

Sam é um escritor de ciência e tecnologia que trabalhou em várias startups de IA. Quando não está a escrever, pode ser encontrado a ler revistas médicas ou a vasculhar caixas de discos de vinil.

×

PDF GRATUITO EXCLUSIVO
Fique à frente com o DailyAI

Subscreva a nossa newsletter semanal e receba acesso exclusivo ao último livro eletrónico do DailyAI: 'Mastering AI Tools: Seu guia 2024 para aumentar a produtividade'.

*Ao subscrever a nossa newsletter, aceita a nossa Política de privacidade e o nosso Termos e condições