Drones estão a matar soldados russos de forma autónoma na Ucrânia

14 de outubro de 2023

IA Rússia

Os drones com capacidades de IA estão agora a identificar e a atingir alvos de forma autónoma na Ucrânia. 

De acordo com um relatório da New Scientisté quase certo que o ataques com drones estão a matar soldados russos sem comando direto ou supervisão de um operador humano, embora não existam dados oficiais. 

O ator principal deste desenvolvimento é o quadricóptero Saker Scout, que foi recentemente colocado ao serviço da Ucrânia. 

Este drone pode transportar uma carga útil de 3 quilos ao longo de cerca de 12 quilómetros. Drones desta natureza, quando operados remotamente, provaram o seu valor no atual conflito entre a Rússia e a Ucrânia. Este modelo pesado em particular representa uma ameaça até para tanques fortemente blindados.

A Saker, uma empresa ucraniana criada em 2021, tinha inicialmente como objetivo oferecer soluções de IA acessíveis a pequenas empresas, especificamente sistemas de visão orientados para a IA para drones em sectores como a agricultura. 

Mas com a invasão da Rússia, a empresa passou a apoiar os militares. A sua plataforma de visão de IA reconhece agora cerca de 64 tipos diferentes de "objectos militares", que incluem veículos e outro hardware, como informou um porta-voz da empresa.

Apesar das capacidades autónomas do Saker Scout, este também pode ser controlado manualmente. No modo manual, a IA indica alvos e pontos e verifica o que é antes de atacar. O drone está integrado no sistema de distribuição de informações Delta da Ucrânia, que recebe dados de várias fontes aéreas e de satélite para construir uma visão holística do campo de batalha.

Além disso, o drone possui uma dupla funcionalidade autónoma. Pode ser enviado para uma região para reconhecimento ou "instruído para encontrar e atacar alvos de forma autónoma". 

Tal como o porta-voz transmitiu à New Scientist, o Saker Scout já entrou em ação em modo autónomo, sublinhando a utilização de tecnologia militar autónoma no campo de batalha - algo que muitos temem. 

O porta-voz salientou que utilizar o drone de forma autónoma não é tão infalível como ter um operador humano envolvido, mas que a IA tinha provado a sua eficácia e que esperar até que "fosse perfeito era desnecessário".

Reflectindo sobre a dinâmica evolutiva da guerra, Mykhailo Fedorov, Ministro da Transformação Digital da Ucrânia, comentou anteriormente que o armamento autónomo representa uma progressão "lógica e inevitável" na tecnologia dos drones.

Comentando a ubiquidade desta tecnologia, Paul Scharre, do Center for a New American Security, declarou: "Os classificadores de imagens existem há pelo menos 10 anos e este tipo de software pode ser descarregado facilmente e treinado com dados adequados". 

Além disso, manifestou preocupações quanto à propensão do drone para identificar incorretamente os alvos, dizendo: "Os sistemas demonstrados até agora têm algum grau de falsos positivos, o que é de esperar".

Há anos que as autoridades de todo o mundo, incluindo a ONU, têm vindo a deliberar sobre medidas regulamentares relativas às armas autónomas. 

Um relatório da ONU de 2021 aludiu à possível utilização de drones de ataque autónomos na Líbia em 2020, mas este facto permanece sem fundamento. Atualmente, não existe legislação detalhada que regule a utilização de armas autónomas. 

O Departamento de Defesa dos EUA (DoD) criou cinco "princípios éticos da inteligência artificialincluindo "Responsável", definido como "O pessoal do DoD exercerá níveis adequados de julgamento e cuidado, mantendo-se responsável pelo desenvolvimento, implantação e utilização das capacidades de IA". 

Embora regras como esta signifiquem a intenção de controlar o armamento de IA, sem definições sólidas de termos como "níveis adequados de julgamento e cuidado", são extremamente subjectivas. 

A este respeito, Scharre afirma que "uma caraterística central do debate tem sido a capacidade de tais armas respeitarem o direito da guerra e evitarem vítimas civis". 

Problemas éticos

As armas autónomas representam numerosas questões éticas

Quem é responsável se as coisas correrem mal? O que acontece quando identificam mal os "alvos", resultando possivelmente em baixas civis? E, talvez o mais distópico, o que acontece se as armas de IA se virarem contra os seus operadores ou se tornarem desonestas?

Até à data, estas tecnologias são ainda raras e as provas da sua segurança são limitadas. 

Embora o teatro de batalha aberto na Ucrânia possa representar um risco mínimo para os civis, pode não ser o caso num lugar mais movimentado, como a Palestina, por exemplo. 

O papel crescente da IA no campo de batalha é talvez inevitável, uma vez que a tecnologia promete operações inteligentes, escaláveis e económicas que não põem em risco o pessoal de um dos lados. 

Junte-se ao futuro


SUBSCREVER HOJE

Claro, conciso e abrangente. Fique a par dos desenvolvimentos da IA com DailyAI

Calças de ganga Sam

Sam é um escritor de ciência e tecnologia que trabalhou em várias startups de IA. Quando não está a escrever, pode ser encontrado a ler revistas médicas ou a vasculhar caixas de discos de vinil.

×

PDF GRATUITO EXCLUSIVO
Fique à frente com o DailyAI

Subscreva a nossa newsletter semanal e receba acesso exclusivo ao último livro eletrónico do DailyAI: 'Mastering AI Tools: Seu guia 2024 para aumentar a produtividade'.

*Ao subscrever a nossa newsletter, aceita a nossa Política de privacidade e o nosso Termos e condições