Os drones com capacidades de IA estão agora a identificar e a atingir alvos de forma autónoma na Ucrânia.
De acordo com um relatório da New Scientisté quase certo que o ataques com drones estão a matar soldados russos sem comando direto ou supervisão de um operador humano, embora não existam dados oficiais.
O ator principal deste desenvolvimento é o quadricóptero Saker Scout, que foi recentemente colocado ao serviço da Ucrânia.
Este drone pode transportar uma carga útil de 3 quilos ao longo de cerca de 12 quilómetros. Drones desta natureza, quando operados remotamente, provaram o seu valor no atual conflito entre a Rússia e a Ucrânia. Este modelo pesado em particular representa uma ameaça até para tanques fortemente blindados.
A Saker, uma empresa ucraniana criada em 2021, tinha inicialmente como objetivo oferecer soluções de IA acessíveis a pequenas empresas, especificamente sistemas de visão orientados para a IA para drones em sectores como a agricultura.
Mas com a invasão da Rússia, a empresa passou a apoiar os militares. A sua plataforma de visão de IA reconhece agora cerca de 64 tipos diferentes de "objectos militares", que incluem veículos e outro hardware, como informou um porta-voz da empresa.
Apesar das capacidades autónomas do Saker Scout, este também pode ser controlado manualmente. No modo manual, a IA indica alvos e pontos e verifica o que é antes de atacar. O drone está integrado no sistema de distribuição de informações Delta da Ucrânia, que recebe dados de várias fontes aéreas e de satélite para construir uma visão holística do campo de batalha.
Além disso, o drone possui uma dupla funcionalidade autónoma. Pode ser enviado para uma região para reconhecimento ou "instruído para encontrar e atacar alvos de forma autónoma".
Tal como o porta-voz transmitiu à New Scientist, o Saker Scout já entrou em ação em modo autónomo, sublinhando a utilização de tecnologia militar autónoma no campo de batalha - algo que muitos temem.
O porta-voz salientou que utilizar o drone de forma autónoma não é tão infalível como ter um operador humano envolvido, mas que a IA tinha provado a sua eficácia e que esperar até que "fosse perfeito era desnecessário".
Reflectindo sobre a dinâmica evolutiva da guerra, Mykhailo Fedorov, Ministro da Transformação Digital da Ucrânia, comentou anteriormente que o armamento autónomo representa uma progressão "lógica e inevitável" na tecnologia dos drones.
Comentando a ubiquidade desta tecnologia, Paul Scharre, do Center for a New American Security, declarou: "Os classificadores de imagens existem há pelo menos 10 anos e este tipo de software pode ser descarregado facilmente e treinado com dados adequados".
Além disso, manifestou preocupações quanto à propensão do drone para identificar incorretamente os alvos, dizendo: "Os sistemas demonstrados até agora têm algum grau de falsos positivos, o que é de esperar".
Há anos que as autoridades de todo o mundo, incluindo a ONU, têm vindo a deliberar sobre medidas regulamentares relativas às armas autónomas.
Um relatório da ONU de 2021 aludiu à possível utilização de drones de ataque autónomos na Líbia em 2020, mas este facto permanece sem fundamento. Atualmente, não existe legislação detalhada que regule a utilização de armas autónomas.
O Departamento de Defesa dos EUA (DoD) criou cinco "princípios éticos da inteligência artificialincluindo "Responsável", definido como "O pessoal do DoD exercerá níveis adequados de julgamento e cuidado, mantendo-se responsável pelo desenvolvimento, implantação e utilização das capacidades de IA".
Embora regras como esta signifiquem a intenção de controlar o armamento de IA, sem definições sólidas de termos como "níveis adequados de julgamento e cuidado", são extremamente subjectivas.
A este respeito, Scharre afirma que "uma caraterística central do debate tem sido a capacidade de tais armas respeitarem o direito da guerra e evitarem vítimas civis".
Problemas éticos
As armas autónomas representam numerosas questões éticas.
Quem é responsável se as coisas correrem mal? O que acontece quando identificam mal os "alvos", resultando possivelmente em baixas civis? E, talvez o mais distópico, o que acontece se as armas de IA se virarem contra os seus operadores ou se tornarem desonestas?
Até à data, estas tecnologias são ainda raras e as provas da sua segurança são limitadas.
Embora o teatro de batalha aberto na Ucrânia possa representar um risco mínimo para os civis, pode não ser o caso num lugar mais movimentado, como a Palestina, por exemplo.
O papel crescente da IA no campo de batalha é talvez inevitável, uma vez que a tecnologia promete operações inteligentes, escaláveis e económicas que não põem em risco o pessoal de um dos lados.