Le Forze di Difesa Israeliane (IDF) hanno iniziato a integrare l'intelligenza artificiale nelle operazioni militari, raccogliendo informazioni sul campo di battaglia, selezionando gli obiettivi per gli attacchi aerei e pianificando le operazioni logistiche.
I funzionari dell'IDF hanno confermato che stanno utilizzando un sistema di raccomandazione AI in grado di analizzare enormi quantità di dati per selezionare gli obiettivi degli attacchi aerei.
I raid sono orchestrati utilizzando un altro modello di intelligenza artificiale, denominato "Fire Factory", che utilizza i dati sugli obiettivi militari per determinare il carico di munizioni, classificare gli obiettivi dei droni e suggerire i programmi di puntamento.
Secondo un funzionario dell'IDF, ogni obiettivo e piano di incursione aerea viene sottoposto a una revisione approfondita da parte di operatori umani. Tuttavia, per il momento, la tecnologia non è regolata da alcuna normativa internazionale o statale.
I sostenitori sostengono che il sistema di intelligenza artificiale potrebbe aiutare le forze armate a ridurre le perdite.
D'altra parte, Tal Mimran, docente di diritto internazionale all'Università Ebraica di Gerusalemme ed ex consulente legale dell'esercito, ha dichiarato: "Se c'è un errore nel calcolo dell'IA, e se l'IA non è spiegabile, a chi dobbiamo dare la colpa dell'errore? Si può spazzare via un'intera famiglia sulla base di un errore".
L'intelligenza artificiale nella guerra moderna: un terreno scivoloso?
I dettagli sull'uso pratico dell'IA da parte dell'IDF nelle operazioni rimangono in gran parte riservati.
Tuttavia, Bloomberg ha sentito che l'IDF ha acquisito una significativa intelligenza sul campo di battaglia tramite l'IA, anche nella Striscia di Gaza. Qui, Israele esegue regolarmente attacchi aerei in risposta agli attacchi missilistici.
Durante il conflitto di 11 giorni a Gaza nel 2021, la L'IDF ha dichiarato l'evento come la prima "guerra dell'intelligenza artificiale" al mondo, riferendosi all'uso dell'intelligenza artificiale per individuare le postazioni di lancio dei razzi e dispiegare gli sciami di droni.
Israele conduce anche raid in Siria e in Libano, prendendo di mira i carichi di armi destinati alle milizie sostenute dall'Iran come Hezbollah.
Questi sono i tipi di strategie che le IA come la Fabbrica del Fuoco supportano.
Il col. Uri, capo dell'unità di trasformazione digitale dell'esercito, ha osservato: "Ciò che prima richiedeva ore ora richiede minuti, con qualche minuto in più per la revisione umana. Con lo stesso numero di persone, facciamo molto di più".
L'IDF si è affermato come leader mondiale nel settore delle armi autonome. Alcuni di questi sistemi sono stati costruiti da aziende israeliane del settore della difesa, mentre altri sono stati sviluppati dall'esercito, come le telecamere StarTrack per il controllo delle frontiere.
La domanda è: dove finisce tutto questo? Cosa succederà quando i sistemi robotici saranno in grado di funzionare autonomamente?
Gli analisti hanno già descritto l'uso dell'IA sul campo di battaglia come uno dei suoi più rischi imminenti e pressanti.
Catherine Connolly, ricercatrice decisionale automatizzata presso Stop ai robot assassiniÈ solo una modifica del software che potrebbe portarli a non essere più semi autonomi, ma completamente autonomi".
Vale la pena sottolineare che non è solo Israele a utilizzare armi supportate dall'intelligenza artificiale. "Possiamo presumere che anche gli americani e i cinesi e forse molti altri Paesi abbiano sistemi avanzati in questi campi", ha dichiarato Liran Antebi, ricercatore senior presso l'Istituto per gli studi sulla sicurezza nazionale con sede in Israele.
Tuttavia, a differenza di Israele, "per quanto ne so, non hanno mai dimostrato un uso operativo e un successo".
Attualmente non esiste un quadro di riferimento internazionale che stabilisca cosa succede quando i dispositivi di guerra dell'intelligenza artificiale si guastano, causando eventualmente errori fatali.
Come ha osservato Connolly di Stop Killer Robots, "Come si può sapere che un sistema sarà preciso e accurato se non è già stato addestrato e testato sulle persone?".
Mimran ha sostenuto che l'IDF dovrebbe utilizzare l'IA esclusivamente per scopi difensivi, affermando che, indipendentemente dalla tecnologia, "c'è un punto in cui è necessario prendere una decisione basata sui valori... E per questo, non possiamo fare affidamento sull'IA".
L'uso dell'IA in guerra è suggestivo, ma non per le giuste ragioni. I ricercatori ipotizzano che l'IA avanzata possa disobbedire ai comandi umani e stabilire "obiettivi emergenti" con esiti imprevedibili.