À medida que os conflitos se sucedem na Ucrânia e no Médio Oriente, o campo de batalha moderno tornou-se um campo de ensaio para a guerra movida a IA.
Dos drones autónomos aos algoritmos de previsão de alvos, os sistemas de IA estão a remodelar a natureza dos conflitos armados.
Os EUA, a Ucrânia, a Rússia, a China, Israel e outros países estão envolvidos numa corrida ao armamento da IA, disputando a supremacia tecnológica num cenário geopolítico cada vez mais volátil.
À medida que surgem estas novas armas e tácticas, surgem também as suas consequências.
Enfrentamos agora questões críticas sobre o futuro da guerra, o controlo humano e a ética de confiar decisões de vida ou morte a máquinas.
A IA pode já ter desencadeado uma escalada militar
Em 2017, Projeto Maven representou o principal esforço do Pentágono para integrar a IA nas operações militares. O seu objetivo é permitir a identificação e o seguimento de alvos em tempo real a partir de imagens de drones sem intervenção humana.
Embora o Project Maven seja frequentemente discutido em termos de análise de imagens de câmaras de drones, as suas capacidades vão provavelmente muito mais longe.
De acordo com a organização sem fins lucrativos Investigação da Tech InquiryO sistema de IA também processa dados de satélites, radares, redes sociais e até activos inimigos capturados. Esta vasta gama de dados é conhecida como "inteligência de todas as fontes".
Em março de 2023, ocorreu um incidente militar quando um drone americano MQ-9 Reaper colidiu com um caça russo sobre o Mar Negro, provocando a queda do drone.
Pouco antes desse incidente, a National Geospatial-Intelligence Agency (NGA) confirmou a utilização da tecnologia do Projeto Maven na Ucrânia.
O Tenente-General Christopher T. Donahue, comandante do XVIII Corpo Aerotransportado, mais tarde afirmou muito claramente sobre o conflito Ucrânia-Rússia: "No final do dia, este tornou-se o nosso laboratório".
O Projeto Maven, na Ucrânia, envolveu sistemas avançados de IA integrados no Radar de Abertura Sintética (SAR) Lynx dos MQ-9 Reapers. Como tal, a IA pode ter sido fundamental para a colisão do drone.
No rescaldo, os EUA convocaram o embaixador russo em Washington para expressar as suas objecções, enquanto o Comando Europeu dos EUA considerou o incidente "inseguro e pouco profissional".
A Rússia negou a ocorrência de qualquer colisão. Em resposta, os EUA reposicionaram alguns aviões não tripulados para monitorizar a região, o que a Rússia protestou.
Esta situação apresentava a possibilidade ameaçadora de os sistemas de IA influenciarem as decisões militares, contribuindo mesmo para uma escalada imprevista dos conflitos militares.
Como pergunta o Tech Inquiry, "vale a pena determinar se o Projeto Maven contribuiu inadvertidamente para uma das escaladas militares mais significativas do nosso tempo".
Campos de minas éticos
O desempenho do Projeto Maven tem sido bastante inconsistente até à data.
De acordo com Dados da Bloomberg citados pelo Independente de KievAo utilizar vários tipos de dados de imagem, os soldados conseguem identificar corretamente um tanque em 84% das vezes, enquanto a IA do Projeto Maven está mais perto de 60%, com o número a cair para 30% em condições de neve".
Embora as implicações éticas da utilização da IA para tomar decisões de vida ou de morte na guerra sejam profundamente preocupantes, o risco de mau funcionamento introduz um aspeto ainda mais assustador nesta corrida tecnológica ao armamento.
Não é apenas uma questão de saber se devemos utilizar a IA para atingir seres humanos, mas também se podemos confiar que estes sistemas funcionarão como previsto no nevoeiro da guerra.
O que acontece quando os civis próximos são identificados como alvos e destruídos de forma autónoma? E se o próprio drone se descontrolar e avariar, viajando para ambientes em que não está treinado para operar?
Neste contexto, o mau funcionamento da IA não é apenas uma falha técnica - é um potencial catalisador de uma tragédia a uma escala inimaginável. Ao contrário dos erros humanos, que podem ter um alcance limitado, o erro de um sistema de IA pode levar a uma carnificina generalizada e indiscriminada numa questão de segundos.
Já foram assumidos compromissos no sentido de travar estes desenvolvimentos e de manter as armas guardadas a sete chaves, como demonstrado quando 30 países aderiram US guarda-corpos sobre tecnologia militar de IA.
O Departamento de Defesa dos EUA (DoD) também lançou cinco "princípios éticos da inteligência artificial" para uso militar, incluindo "O pessoal do DoD exercerá níveis adequados de julgamento e cuidado, mantendo-se responsável pelo desenvolvimento, implantação e utilização das capacidades de IA."
No entanto, os desenvolvimentos recentes indicam uma desconexão entre estes princípios e a prática.
Por um lado, é provável que a tecnologia infundida com IA já seja responsável por incidentes graves fora do seu âmbito de ação. Em segundo lugar, o grupo de trabalho de IA generativa do DoD envolve a externalização para empresas privadas como a Palantir, a Microsoft e a OpenAI.
A colaboração com entidades comerciais que não estão sujeitas à mesma supervisão que as agências governamentais lançou dúvidas sobre a capacidade do DoD para controlar o desenvolvimento da IA.
Entretanto, o Comité Internacional da Cruz Vermelha (CICV) iniciou debates sobre a legalidade destes sistemasnomeadamente no que respeita ao Princípio da "distinção" da Convenção de Genebraque obriga a distinguir entre combatentes e civis.
Os algoritmos de IA são apenas tão bons como os seus dados de treino e regras programadas, pelo que podem ter dificuldades com esta diferenciação, especialmente em condições dinâmicas e imprevisíveis do campo de batalha.
Como indica o incidente com o drone do Mar Negro, estes receios são reais. No entanto, os líderes militares de todo o mundo continuam optimistas em relação às máquinas de guerra equipadas com IA.
Não há muito tempo, um caça F-16 alimentado por IA manobrou melhor que os pilotos humanos numa demonstração de teste.
O Secretário da Força Aérea dos EUA, Frank Kendall, que experimentou-o em primeira mãoO Comissário da UE para a Segurança e a Defesa, Carlos Alberto, resumiu a inércia em torno da tecnologia militar de IA: "É um risco para a segurança não a ter. Nesta altura, temos de a ter".
À primeira vista, trata-se de uma confissão sombria.
Apesar dos milénios de guerra e das suas consequências devastadoras, a simples ideia de estar um passo atrás do "inimigo" - esta ansiedade primordial, talvez profundamente enraizada na nossa psique - continua a sobrepor-se à razão.
Armamento de IA desenvolvido internamente
Na Ucrânia, jovens empresas como a Vyriy, a Saker e a Roboneers estão a desenvolver ativamente tecnologias que esbatem a ténue linha entre a tomada de decisões por humanos e por máquinas no campo de batalha.
A Saker desenvolveu um sistema de mira autónomo que permite identificar e atacar alvos até 25 milhas de distância, enquanto a Roboneers criou uma torre de metralhadora telecomandada que pode ser operada com um controlador de jogo e um tablet.
Sobre este novo estado da guerra moderna alimentada por IA, o New York Times seguiu recentemente Oleksii Babenko, 25 anos, diretor executivo do fabricante de drones Vyriy, que apresentou a mais recente criação da sua empresa.
Numa demonstração real, Babenko conduziu uma mota a toda a velocidade enquanto o drone o seguia, sem qualquer controlo humano. Os jornalistas viram a cena desenrolar-se num ecrã de computador portátil.
O quadrocóptero avançado acabou por apanhá-lo e, nas palavras dos repórteres, "se o drone estivesse armado com explosivos e se os seus colegas não tivessem desativado o rastreio autónomo, Babenko teria morrido".
À semelhança da Ucrânia, o conflito israelo-palestiniano está a revelar-se um foco de investigação de IA militar.
As armas experimentais com IA incorporada ou semi-autónomas incluem quadricópteros telecomandados armados com metralhadoras e mísseis e o "Jaguar," um robô semi-autónomo utilizado na patrulha das fronteiras.
Os militares israelitas também criaram torres alimentadas por IA que estabelecem o que designam por "zonas de morte automatizadas" ao longo da fronteira de Gaza.
Talvez o mais preocupante para os observadores dos direitos humanos sejam os sistemas automatizados de geração de alvos de Israel. "O Evangelho" foi concebido para identificar alvos de infra-estruturas, enquanto que "Lavanda" centra-se na criação de listas de alvos humanos individuais.
Outro sistema, sinistramente denominado "Onde está o papá?"O sistema de vigilância, que é utilizado para localizar militantes suspeitos quando estes estão com as suas famílias.
A agência noticiosa israelita de esquerda +972, em Telavive, admitiu que estes sistemas causaram quase certamente vítimas civis.
O caminho a seguir
À medida que a tecnologia de IA militar avança, a atribuição de responsabilidades por erros e falhas torna-se uma tarefa intratável - um vazio moral e ético em espiral em que já entrámos.
Como podemos evitar um futuro em que matar é mais automatizado do que humano e a responsabilidade se perde num nevoeiro algorítmico?
Os acontecimentos actuais e a retórica não inspiram cautela.