I droni uccidono autonomamente i soldati russi in Ucraina

14 ottobre 2023

AI Russia

I droni con capacità di intelligenza artificiale stanno ora identificando e aggredendo autonomamente gli obiettivi in Ucraina. 

Secondo un rapporto del New Scientistè quasi certo che il attacchi con i droni stanno uccidendo soldati russi senza un comando diretto o la supervisione di un operatore umano, anche se mancano dati ufficiali. 

Il protagonista di questo sviluppo è il quadcopter Saker Scout, recentemente entrato in servizio in Ucraina. 

Questo drone può trasportare un carico utile di 3 chilogrammi per circa 12 chilometri. Droni di questo tipo, se manovrati a distanza, hanno dimostrato il loro valore nel conflitto in corso tra Russia e Ucraina. Questo particolare modello pesante rappresenta una minaccia anche per i carri armati pesantemente corazzati.

Saker, un'impresa ucraina fondata nel 2021, mirava inizialmente a offrire soluzioni di intelligenza artificiale a prezzi accessibili alle piccole imprese, in particolare sistemi di visione guidati dall'intelligenza artificiale per i droni in settori come l'agricoltura. 

Ma con l'invasione della Russia, l'azienda è passata a supportare l'esercito. La loro piattaforma di visione AI riconosce ora circa 64 diversi tipi di "oggetti militari", che comprendono veicoli e altri hardware, come informa un portavoce dell'azienda.

Nonostante le capacità autonome del Saker Scout, può essere controllato anche manualmente. In modalità manuale, l'intelligenza artificiale indica i bersagli, individua e verifica la loro presenza prima di colpire. Il drone è integrato con il sistema di distribuzione di intelligence Delta dell'Ucraina, che ingerisce dati da varie fonti aeree e satellitari per costruire una visione olistica del campo di battaglia.

Inoltre, il drone possiede una doppia funzionalità autonoma. Può essere inviato in una regione per la ricognizione o "istruito per trovare e attaccare obiettivi autonomamente". 

Come ha dichiarato il portavoce a New Scientist, il Saker Scout è già entrato in azione in modalità autonoma, sottolineando la diffusione della tecnologia militare autonoma sul campo di battaglia - cosa che molti temono. 

Il portavoce ha sottolineato che l'impiego del drone in autonomia non è così infallibile come il coinvolgimento di un operatore umano, ma che l'IA ha dimostrato la sua efficacia e che aspettare che "fosse perfetta non era necessario".

Riflettendo sull'evoluzione delle dinamiche belliche, Mykhailo Fedorov, ministro ucraino per la trasformazione digitale, ha precedentemente commentato che le armi autonome rappresentano una progressione "logica e inevitabile" della tecnologia dei droni.

Commentando l'ubiquità di questa tecnologia, Paul Scharre del Center for a New American Security ha dichiarato: "I classificatori di immagini esistono da almeno 10 anni e questo tipo di software può essere scaricato facilmente e addestrato su dati adeguati". 

Ha inoltre espresso preoccupazioni circa la propensione dei droni a sbagliare l'identificazione dei bersagli, affermando: "I sistemi dimostrati finora hanno un certo grado di falsi positivi, il che è prevedibile".

Le autorità di tutto il mondo, comprese quelle dell'ONU, stanno deliberando da anni sulle misure di regolamentazione delle armi autonome. 

Un rapporto delle Nazioni Unite del 2021 alludeva al possibile dispiegamento di droni d'attacco autonomi in Libia nel 2020, ma la notizia non è stata confermata. Attualmente, nessuna legislazione dettagliata regola l'uso di armi autonome. 

Il Dipartimento della Difesa degli Stati Uniti (DoD) ha creato cinque "principi etici per l'intelligenza artificialeIl personale del Dipartimento della Difesa eserciterà livelli appropriati di giudizio e attenzione, pur rimanendo responsabile dello sviluppo, dell'impiego e dell'uso delle capacità di IA". 

Sebbene regole come questa significhino l'intenzione di controllare le armi dell'IA, senza definizioni solide di termini come "livelli appropriati di giudizio e attenzione", sono estremamente soggettive. 

A questo proposito, Scharre afferma: "Una caratteristica centrale del dibattito è stata la capacità di tali armi di rispettare la legge di guerra e di evitare vittime civili". 

Quesiti etici

Le armi autonome si pongono numerose questioni etiche

Chi è responsabile se sbagliano? Cosa succede se sbagliano a identificare i "bersagli", causando magari vittime tra i civili? E, cosa forse più distopica, cosa succederebbe se le armi IA si rivoltassero contro i loro operatori o diventassero disoneste?

Ad oggi, queste tecnologie sono ancora rare e le prove della loro sicurezza sono limitate. 

Se il teatro di battaglia aperto in Ucraina può rappresentare un rischio minimo per i civili, potrebbe non essere così in altri luoghi più affollati, come ad esempio la Palestina. 

Il ruolo crescente dell'IA sul campo di battaglia è forse inevitabile: la tecnologia promette operazioni intelligenti, scalabili ed economiche che non mettono a rischio il personale di una delle parti. 

Partecipa al futuro


ISCRIVITI OGGI

Chiaro, conciso, completo. Per conoscere gli sviluppi dell'IA con DailyAI

Sam Jeans

Sam è uno scrittore di scienza e tecnologia che ha lavorato in diverse startup di intelligenza artificiale. Quando non scrive, lo si può trovare a leggere riviste mediche o a scavare tra scatole di dischi in vinile.

×

PDF GRATUITO ESCLUSIVO
Rimanere all'avanguardia con DailyAI

Iscriviti alla nostra newsletter settimanale e ricevi l'accesso esclusivo all'ultimo eBook di DailyAI: 'Mastering AI Tools: La tua guida 2024 per una maggiore produttività".

*Iscrivendosi alla nostra newsletter si accetta la nostra Informativa sulla privacy e il nostro Termini e condizioni