I campi di battaglia moderni sono diventati un terreno fertile per le armi sperimentali dell'intelligenza artificiale.

3 luglio 2024

  • Le applicazioni militari dell'intelligenza artificiale stanno proliferando in tutto il mondo nonostante gli sforzi per fermarle
  • Ogni potenza militare è preoccupata di rimanere indietro in questa nuova corsa agli armamenti.
  • Le prove e le osservazioni dei conflitti moderni rivelano l'entità del rischio.

Mentre i conflitti infuriano in Ucraina e in Medio Oriente, il campo di battaglia moderno è diventato un terreno di prova per la guerra potenziata dall'intelligenza artificiale.

Dai droni autonomi agli algoritmi di puntamento predittivo, i sistemi di intelligenza artificiale stanno ridisegnando la natura dei conflitti armati.

Stati Uniti, Ucraina, Russia, Cina, Israele e altri sono impegnati in una corsa agli armamenti dell'intelligenza artificiale, ognuno in lizza per la supremazia tecnologica in un panorama geopolitico sempre più instabile.

Con l'emergere di queste nuove armi e tattiche, emergono anche le loro conseguenze.

Ora ci troviamo di fronte a domande critiche sul futuro della guerra, sul controllo umano e sull'etica di affidare alle macchine le decisioni sulla vita e sulla morte.

L'intelligenza artificiale potrebbe aver già innescato un'escalation militare

Nel 2017, Progetto Maven rappresenta il principale sforzo del Pentagono per integrare l'intelligenza artificiale nelle operazioni militari. L'obiettivo è quello di consentire l'identificazione e il tracciamento in tempo reale di obiettivi a partire da filmati di droni senza l'intervento umano.

Sebbene si parli spesso di Project Maven in termini di analisi dei filmati delle telecamere dei droni, le sue capacità si estendono probabilmente molto di più.

Secondo l'osservatorio no-profit La ricerca di Tech InquiryIl sistema di intelligenza artificiale elabora anche i dati provenienti dai satelliti, dai radar, dai social media e persino dalle risorse nemiche catturate. Questa ampia gamma di input è nota come "intelligence all-source".

Nel marzo 2023, si è verificato un incidente militare quando un drone statunitense MQ-9 Reaper si è scontrato con un jet da combattimento russo sopra il Mar Nero, causando la caduta del drone.

Poco prima di quell'incidente, la National Geospatial-Intelligence Agency (NGA) ha confermato l'utilizzo della tecnologia del Project Maven in Ucraina.

Il tenente generale Christopher T. Donahue, comandante del XVIII Corpo aviotrasportato, successivamente ha dichiarato chiaramente del conflitto tra Ucraina e Russia: "In fin dei conti, questo è diventato il nostro laboratorio".

Il progetto Maven in Ucraina prevedeva sistemi avanzati di intelligenza artificiale integrati nel radar ad apertura sintetica (SAR) Lynx degli MQ-9 Reaper. In quanto tale, l'intelligenza artificiale potrebbe essere stata determinante nella collisione tra i droni.

Drone
La mattina del 14 marzo 2023, un caccia russo Su-27 ha intercettato e danneggiato un drone statunitense MQ-9 Reaper, facendolo precipitare nel Mar Nero. Si è trattato del primo scontro diretto tra le forze aeree russe e statunitensi dai tempi della Guerra Fredda, un'escalation significativa delle tensioni militari tra le due nazioni. Fonte: US Air Force.

In seguito, gli Stati Uniti hanno convocato l'ambasciatore russo a Washington per esprimere le proprie obiezioni, mentre il Comando europeo degli Stati Uniti ha definito l'incidente "non sicuro e non professionale".

La Russia ha negato che si sia verificata una collisione. In risposta, gli Stati Uniti hanno riposizionato alcuni velivoli senza pilota per monitorare la regione, e la Russia ha protestato.

Questa situazione presentava la minacciosa possibilità che i sistemi di intelligenza artificiale influenzassero le decisioni militari, contribuendo persino a un'escalation imprevista dei conflitti militari.

Come si chiede Tech Inquiry, "vale la pena di determinare se il Progetto Maven abbia inavvertitamente contribuito a una delle più significative escalation militari del nostro tempo".

Campi minati etici

Le prestazioni di Project Maven sono state finora largamente incoerenti.

Secondo Dati Bloomberg citati dal Indipendente di KievQuando si utilizzano vari tipi di dati di imaging, i soldati sono in grado di identificare correttamente un carro armato 84% delle volte, mentre l'intelligenza artificiale del Project Maven si avvicina a 60%, con un crollo a 30% in condizioni di neve".

Se le implicazioni etiche dell'uso dell'intelligenza artificiale per prendere decisioni di vita o di morte in guerra sono profondamente preoccupanti, il rischio di malfunzionamento introduce un aspetto ancora più agghiacciante in questa corsa agli armamenti tecnologici.

Non si tratta solo di decidere se usare l'intelligenza artificiale per colpire gli esseri umani, ma anche se possiamo fidarci che questi sistemi funzionino come previsto nella nebbia della guerra.

Cosa succede quando i civili nelle vicinanze vengono etichettati come bersagli e distrutti autonomamente? E cosa succede se il drone stesso va in tilt e si guasta, viaggiando in ambienti in cui non è addestrato a operare?

In questo contesto, il malfunzionamento dell'IA non è un semplice inconveniente tecnico, ma un potenziale catalizzatore di tragedie di dimensioni inimmaginabili. A differenza degli errori umani, che potrebbero avere una portata limitata, l'errore di un sistema di intelligenza artificiale potrebbe portare a una carneficina diffusa e indiscriminata nel giro di pochi secondi.

Gli impegni per rallentare questi sviluppi e per tenere le armi sotto chiave sono già stati presi, come dimostrato quando 30 paesi hanno aderito US guardrail sulla tecnologia militare AI.

Il Dipartimento della Difesa degli Stati Uniti (DoD) ha anche pubblicato cinque "principi etici per l'intelligenza artificiale" per uso militare, compreso quello "Il personale del Dipartimento della Difesa eserciterà livelli appropriati di giudizio e attenzione, pur rimanendo responsabile dello sviluppo, dell'impiego e dell'uso delle capacità di IA".

Tuttavia, i recenti sviluppi indicano uno scollamento tra questi principi e la pratica.

In primo luogo, è probabile che la tecnologia infusa nell'IA sia già responsabile di gravi incidenti che esulano dal suo ambito di applicazione. In secondo luogo, la task force sull'IA generativa del Dipartimento della Difesa prevede l'esternalizzazione a società private. come Palantir, Microsoft e OpenAI

La collaborazione con entità commerciali non soggette alla stessa supervisione delle agenzie governative mette in dubbio la capacità del Dipartimento della Difesa di controllare lo sviluppo dell'IA.

Nel frattempo, il Comitato internazionale della Croce Rossa (CICR) ha avviato discussioni sulla legalità di questi sistemi, in particolare per quanto riguarda la Il principio di "distinzione" della Convenzione di Ginevrache impone di distinguere tra combattenti e civili. 

Gli algoritmi di intelligenza artificiale sono validi solo in base ai dati di addestramento e alle regole programmate, quindi potrebbero avere difficoltà in questa differenziazione, soprattutto in condizioni dinamiche e imprevedibili del campo di battaglia.

Come dimostra l'incidente del drone nel Mar Nero, questi timori sono reali. Tuttavia, i leader militari di tutto il mondo rimangono ottimisti riguardo alle macchine da guerra dotate di intelligenza artificiale. 

Non molto tempo fa, un caccia F-16 potenziato dall'intelligenza artificiale ha superato i piloti umani in una dimostrazione di prova.

Il Segretario dell'Aeronautica degli Stati Uniti Frank Kendall, che l'ha vissuta in prima personaha riassunto l'inerzia che circonda la tecnologia militare AI: "È un rischio per la sicurezza non averla. A questo punto, dobbiamo averla".

All'apparenza, si tratta di una triste ammissione.

Nonostante millenni di guerre e le loro devastanti conseguenze, il solo pensiero di essere un passo indietro rispetto al "nemico" - quest'ansia primordiale, forse profondamente radicata nella nostra psiche - continua a prevalere sulla ragione.

Armi AI di produzione propria

In Ucraina, giovani aziende come Vyriy, Saker e Roboneers stanno sviluppando attivamente tecnologie che sfumano la tenue linea di demarcazione tra il processo decisionale umano e quello automatico sul campo di battaglia.

Saker ha sviluppato un sistema di puntamento autonomo in grado di identificare e attaccare obiettivi fino a 25 miglia di distanza, mentre Roboneers ha creato una torretta mitragliatrice telecomandata che può essere azionata con un controller di gioco e un tablet.

Nel riferire di questo nuovo stato della guerra moderna alimentata dall'intelligenza artificiale, il New York Times ha recentemente seguito Oleksii Babenko, 25enne CEO del produttore di droni Vyriy, che ha mostrato l'ultima creazione della sua azienda. 

In una dimostrazione reale, Babenko ha guidato una moto a tutta velocità mentre il drone lo seguiva, senza alcun controllo umano. I giornalisti hanno assistito allo svolgimento della scena sullo schermo di un computer portatile. 

Alla fine, il quadricottero avanzato lo ha catturato e, secondo le parole dei giornalisti, "se il drone fosse stato armato di esplosivo e se i suoi colleghi non avessero disattivato la localizzazione autonoma, il signor Babenko sarebbe stato un uomo morto". 

Analogamente all'Ucraina, il conflitto israelo-palestinese si sta rivelando un focolaio di ricerca sull'intelligenza artificiale militare.

Le armi sperimentali integrate nell'intelligenza artificiale o semi-autonome includono quadcopter telecomandati armati di mitragliatrici e missili e il "Jaguarun robot semi-autonomo utilizzato per il pattugliamento delle frontiere.

L'esercito israeliano ha anche creato torrette dotate di intelligenza artificiale che stabiliscono quelle che definiscono "zone di uccisione automatizzate" lungo il confine con Gaza.

Armi AI
La natura autonoma del Jaguar è rivelata dalla torretta e dalla telecamera montata.

Forse la cosa più preoccupante per gli osservatori dei diritti umani sono i sistemi di generazione automatica di bersagli di Israele. "Il Vangelo" è stato progettato per identificare gli obiettivi infrastrutturali, mentre "Lavanda" si concentra sulla generazione di elenchi di obiettivi umani individuali.

Un altro sistema, dal nome minaccioso "Dov'è papà?"Il sistema viene utilizzato per rintracciare i sospetti militanti quando si trovano con le loro famiglie.

L'organo di informazione israeliano di sinistra +972, in collegamento da Tel Aviv, ha ammesso che questi sistemi hanno quasi certamente causato vittime civili.

Il percorso da seguire

Con l'avanzare della tecnologia AI militare, l'attribuzione della responsabilità per errori e fallimenti diventa un compito intrattabile - un vuoto morale ed etico a spirale in cui siamo già entrati. 

Come possiamo evitare un futuro in cui le uccisioni sono più automatizzate che umane e la responsabilità si perde in una nebbia algoritmica?

L'attualità e la retorica non ispirano cautela. 

Partecipa al futuro


ISCRIVITI OGGI

Chiaro, conciso, completo. Per conoscere gli sviluppi dell'IA con DailyAI

Sam Jeans

Sam è uno scrittore di scienza e tecnologia che ha lavorato in diverse startup di intelligenza artificiale. Quando non scrive, lo si può trovare a leggere riviste mediche o a scavare tra scatole di dischi in vinile.

×

PDF GRATUITO ESCLUSIVO
Rimanere all'avanguardia con DailyAI

Iscriviti alla nostra newsletter settimanale e ricevi l'accesso esclusivo all'ultimo eBook di DailyAI: 'Mastering AI Tools: La tua guida 2024 per una maggiore produttività".

*Iscrivendosi alla nostra newsletter si accetta la nostra Informativa sulla privacy e il nostro Termini e condizioni