IA sul campo di battaglia: chi è responsabile se va male?

27 agosto 2023

Crimini di guerra

In un mondo in cui i "giochi di guerra" non si riferiscono più solo a giochi da tavolo o videogiochi, ma a scenari di vita e di morte facilitati dall'intelligenza artificiale, la questione della responsabilità è monumentale.

Le forze armate stanno incrementando la ricerca e gli investimenti nell'IA.

Alcuni analisti hanno definito l'incontro israelo-palestinese del 2021, durato 11 giorni, come il primo "Guerra di intelligenza artificialedove le tecnologie israeliane hanno assistito l'intelligence e il dispiegamento sul campo di battaglia.

Negli ultimi mesi, te forze armate statunitensi hanno istituito un task force sull'IA generativa e ha testato con successo un jet autonomo alimentato dall'intelligenza artificiale.

Il ruolo crescente dell'IA in guerra presenta una serie di complessi dilemmi legali ed etici a cui non abbiamo ancora risposto, anche se la tecnologia militare alimentata dall'IA è in fase di implementazione proprio in questo momento.

Chi è responsabile quando l'IA va male?

Il produttore di tecnologia militare Rafael "Tessitore di fuoco" localizza le posizioni del nemico utilizzando i sensori e suggerisce l'unità meglio posizionata per fare fuoco su di esso. 

Nella descrizione del prodotto si legge: "Fire Weaver calcola le regole di ingaggio e dirige il puntamento e il fuoco, utilizzando il tiratore più appropriato per ogni bersaglio acquisito".

"Calcola" è la parola chiave in questo caso. Le armi dell'intelligenza artificiale possono ridurre la decisione di distruggere un bersaglio a una decisione binaria sì/no, ma cosa succede se Fire Weaver scambia un bambino per un soldato nemico? O un camion di aiuti umanitari invece di un veicolo nemico?

Attualmente, la mancanza di chiarezza morale, etica e legale è evidente. L'IA occupa un vuoto giuridico ed etico che potrebbe durare ancora per un po' di tempo, dato che l'attività legislativa è notoriamente lenta e raramente si scontra con una tecnologia in così rapida evoluzione. 

Nella società in generale, ci sono già molti esempi di IA che compromettono le persone e i loro diritti. Questi esempi danno un'idea del vuoto legislativo ed etico creato dall'IA e dai suoi vari usi. 

Per esempio, ChatGPT presunto un uomo della Georgia, Mark Walters, è stato giudicato colpevole di appropriazione indebita aziendale e ha accusato il professore di legge Jonathan Turley di violenza sessuale. Il ChatGPT era falso in entrambi i casi.

Allo stesso modo, Getty Images e diversi artisti, autori e altri creatori hanno lanciato cause legali per il diritto d'autore contro le aziende tecnologiche per l'utilizzo di dati di formazione per costruire i loro modelli. 

I dati di addestramento sono spesso raccolti da terze parti, come Common Crawl, e da "biblioteche ombra" come Bibliotik, simili a siti di torrent come PirateBay. 

In questo caso, chi è responsabile della violazione del copyright? Gli sviluppatori dell'intelligenza artificiale o gli editori dei set di dati? È un cerchio di responsabilità da cartone animato, in cui ogni potenziale colpevole indica chi gli sta accanto e, alla fine, tutti sfuggono alla colpa. 

Questo nebuloso panorama etico è molto più rischioso nel contesto delle armi AI e delle tattiche militari algoritmiche, dove i calcoli di un modello potrebbero letteralmente determinare la vita o la morte. 

Le organizzazioni militari sono già consapevoli del cambiamento di paradigma rappresentato dalle armi AI. Secondo il Dipartimento della Difesa (DoD), il primo dei suoi cinque "principi etici per l'intelligenza artificiale"Per gli usi militari è "responsabile", definito come "il personale del Dipartimento della Difesa eserciterà livelli appropriati di giudizio e attenzione, pur rimanendo responsabile dello sviluppo, dell'impiego e dell'uso delle capacità di IA".

Ciò significa che un uomo deve essere responsabile delle azioni della macchina. Le forze armate si sono sempre basate sul principio che qualcuno - in genere il comandante o un soldato - deve essere ritenuto responsabile delle azioni intraprese in guerra. Tuttavia, il ruolo dell'IA nel processo decisionale è sempre più oscuro. 

La prima domanda è: dato che l'IA assume ruoli sempre più sofisticati nel targeting, nella sorveglianza e in altre aree, premere il pulsante "Approva" equivale a essere colpevoli? 

Se le previsioni dell'IA fallissero, ad esempio, causando vittime tra i civili, non è certo che qualcuno accetterebbe che "la macchina" sia l'unica responsabile di un incidente. 

A loro volta, possono verificarsi situazioni in cui gli esseri umani vengono ingiustamente incolpati per il loro ruolo in un incidente a cui non hanno contribuito, cosa che l'antropologo M.C. Elish descrive come una "zona di accartocciamento morale." 

Le ricerche di Elish sugli incidenti industriali e di macchine suggeriscono che gli esseri umani tendono ad assorbire la colpa in ogni incidente, anche se la colpa è della macchina, dell'algoritmo o del decisore che ha approvato la tecnologia in primo luogo. 

L'autrice si basa su diversi esempi reali, come l'incidente nucleare di Three Mile Island, in Pennsylvania, e l'incidente del volo Air France 447, che sono stati in gran parte attribuiti a un "errore umano" piuttosto che a una serie più intricata di guasti distribuiti tra più individui e sistemi. 

In merito alla responsabilità nell'era dell'IA, Elish afferma: "Per quanto riguarda le tecnologie autonome e robotiche, i regolamenti, le leggi e le norme sono ancora in fase di formazione e possono essere particolarmente suscettibili di incertezze o addirittura di elusioni della responsabilità".

Ciò solleva anche questioni relative al ruolo dei processi democratici in guerra e alla sovranità del processo decisionale umano. Quando la guerra del Vietnam è stata trasmessa nei salotti di tutta l'America, l'immediatezza del tributo della guerra ha avuto un impatto sull'opinione pubblica e sulla politica. 

Al contrario, il combattimento assistito dall'IA potrebbe eliminare i controlli e gli equilibri sociali dal sentimento pubblico e dal discorso democratico.

L'etico e filosofo Thomas Metzinger sottolinea che le norme etiche non sono solo costruzioni legali, ma anche sociali che nascono dai processi democratici.

Se sono gli algoritmi a prendere le decisioni, il coinvolgimento umano - e quindi la responsabilità morale - diventa diffuso e ridondante. 

Implicazioni legali internazionali dell'IA in guerra

Uno dei pilastri della Convenzione di Ginevra è il principio della "distinzione", che impone di distinguere tra combattenti e civili. 

La tecnologia ha già dimostrato di non essere in grado di mantenere le promesse di una maggiore protezione dei civili: solo 10% delle persone uccise negli attacchi dei droni statunitensi durante la presidenza Obama erano i bersagli previsti, secondo i documenti trapelati da L'intercettazione

Gli algoritmi di intelligenza artificiale sono validi quanto i dati su cui vengono addestrati e le regole che sono programmati per seguire. In guerra, un algoritmo potrebbe interpretare male i dati a causa della nebbia di guerra, di dati di addestramento errati o di tattiche nemiche intenzionalmente ingannevoli. 

Il Comitato Internazionale della Croce Rossa (CICR) ha avviato discussioni sulla legalità dei sistemi di armi autonome ai sensi del diritto internazionale umanitario vigente, ma le definizioni concrete sono poche. 

Essi stabiliscono che le strutture esistenti non sono adatte alle nuove sfide poste dall'IA e la I principi proposti dal CICR sono vaghi; ad esempio, "i sistemi d'arma autonomi imprevedibili dovrebbero essere espressamente esclusi".

Dove stabiliamo la soglia di "imprevedibilità" quando un minuscolo errore potrebbe essere catastrofico?

Inoltre, il campo di battaglia è in continua evoluzione e presenterà "casi limite", ossia punti ciechi non considerati nell'addestramento dell'IA. Costruire sistemi di IA che rispondano a condizioni ambientali dinamiche con gli stessi tempi di reazione degli esseri umani è eccezionalmente difficile. 

Mentre le armi dell'intelligenza artificiale potrebbero mantenere la precisione in scenari tipici del campo di battaglia, cosa succede quando l'ambiente si allontana da quella che il modello ritiene essere la "verità di base" o quando casi limite ne compromettono la precisione?

Erosione della sensibilità morale

L'atto di uccidere in guerra è cambiato enormemente con l'avvento delle moderne strategie e tattiche militari. 

Durante la Prima Guerra Mondiale, analisi e resoconti storici come il controverso libro di S.L.A. Marshall "Uomini contro il fuoco" suggeriscono che solo dal 15 al 25% dei soldati in prima linea hanno sparato con l'intento di uccidere. 

Oggi, un soldato che opera con un drone a migliaia di chilometri di distanza non sperimenta l'impatto emotivo e psicologico immediato delle sue azioni, il che è stato indicato da un'incidenza generalmente inferiore di PTSD e altri problemi di salute mentale rispetto a chi presta servizio sul campo.

Il design stesso della tecnologia militare si è adattato ai nuovi paradigmi della "guerra a distanza". I controller utilizzati per i droni sono stati notati per la loro somiglianza con i controller dei videogiochi, una scelta progettuale che potrebbe non essere casuale.

Gli operatori dell'intelligenza artificiale possono prendere decisioni di vita o di morte in un ambiente che astrae la realtà della guerra in punti di dati e immagini su uno schermo, separando la realtà dalla realtà. l'ultimo legame morale che abbiamo con le vite di coloro che sono coinvolti nel conflitto. 

Dove andiamo a finire?

L'IA militare si evolve in qualcosa che molti temono seriamente, attribuendo la responsabilità di errori e fallimenti a una singola persona, sviluppatori, organizzazioni o interi gruppi sembra improbabile. 

Chi, o cosa, lascia la responsabilità? Home evitare di entrare in un futuro in cui l'uccisione diventa più macchina che uomo e in cui la responsabilità etica si disperde in astrazioni algoritmiche? 

Col tempo, sistemi artificiali sempre più intelligenti trasformeranno probabilmente il tessuto dell'etica e della responsabilità, soprattutto se mostreranno segni di senzienza o coscienza.

Ma questo non spiega come viene gestita la situazione nel presente e, come molte cose nel mondo dell'IA, ci sono più domande che risposte.

Partecipa al futuro


ISCRIVITI OGGI

Chiaro, conciso, completo. Per conoscere gli sviluppi dell'IA con DailyAI

Sam Jeans

Sam è uno scrittore di scienza e tecnologia che ha lavorato in diverse startup di intelligenza artificiale. Quando non scrive, lo si può trovare a leggere riviste mediche o a scavare tra scatole di dischi in vinile.

×

PDF GRATUITO ESCLUSIVO
Rimanere all'avanguardia con DailyAI

Iscriviti alla nostra newsletter settimanale e ricevi l'accesso esclusivo all'ultimo eBook di DailyAI: 'Mastering AI Tools: La tua guida 2024 per una maggiore produttività".

*Iscrivendosi alla nostra newsletter si accetta la nostra Informativa sulla privacy e il nostro Termini e condizioni