L'intelligenza artificiale affronta il "momento Oppenheimer" nella corsa agli armamenti dei robot killer

1 maggio 2024
  • Una conferenza internazionale a Vienna ha discusso sulla necessità di regolamentare le armi autonome di intelligenza artificiale.
  • Il ministro degli Esteri austriaco Alexander Schallenberg ha dichiarato che il mondo sta affrontando un "momento Oppenheimer".
  • L'IA viene già utilizzata nelle guerre in Israele e in Ucraina, in assenza di una regolamentazione della tecnologia.

Alla conferenza internazionale "Humanity at the Crossroads: Autonomous Weapons Systems and the Challenge of Regulation", tenutasi a Vienna, è stato chiesto di regolamentare l'uso dell'IA nei sistemi d'arma autonomi (AWS) quando la tecnologia è ancora agli albori.

Nel corso dei secoli, i progressi della tecnologia hanno portato a cambiamenti radicali nel modo in cui si combattono le guerre. Sviluppi come l'acciaio, la polvere da sparo e, infine, la bomba atomica hanno trovato applicazione iniziale in guerra, prima di approdare alle applicazioni civili.

L'IA ha invertito la tendenza in questo senso. Le prime applicazioni sono state in gran parte commerciali, ma le forze di difesa hanno rapidamente visto il potenziale dell'IA per trasformare ancora una volta il campo di battaglia.

Facendo riferimento alla prima bomba atomica, il ministro degli Esteri austriaco Alexander Schallenberg ha detto ai partecipanti provenienti da 143 Paesi che il mondo sta affrontando un "momento Oppenheimer" nel decidere se e come l'intelligenza artificiale debba essere utilizzata nelle armi autonome.

L'urgenza di una regolamentazione non è dovuta solo alla previsione di potenziali minacce future, ma anche all'uso dell'IA nei conflitti attuali.

Droni autonomi vengono utilizzati da entrambe le parti nella guerra in Ucraina. Le forze israeliane stanno utilizzando l'IA in molteplici applicazioni di difesa, tra cui il presunto utilizzo dell'IA per identificare obiettivi umani nella guerra di Gaza.

Schallenberg ha affermato che "i sistemi d'arma autonomi riempiranno presto i campi di battaglia del mondo", avvertendo che è "giunto il momento di concordare regole e norme internazionali per garantire il controllo umano".

Ha esortato a limitare l'autonomia delle armi AI, dicendo: "Almeno facciamo in modo che la decisione più profonda e di vasta portata - chi vive e chi muore - rimanga nelle mani degli esseri umani e non delle macchine".

In una dichiarazione del governo austriaco si legge: "I sistemi di armi autonome (AWS) sollevano profonde questioni dal punto di vista legale, etico, umanitario e della sicurezza. L'umanità è a un bivio e deve unirsi per affrontare la sfida fondamentale della regolamentazione di queste armi".

Dollari della difesa contro umanità

I conflitti in corso hanno visto aumentare i budget per la difesa a livello globale, e i prezzi delle azioni di diversi paesi sono aumentati. Aziende di tecnologia della difesa alimentate dall'intelligenza artificiale in risposta. Le tecnologie AWS potrebbero essere troppo redditizie per essere vietate.

Jaan Tallinn, uno dei primi investitori di Google DeepMind Le tecnologie hanno detto che "gli incentivi della Silicon Valley potrebbero non essere allineati con il resto dell'umanità".

Nel suo discorso programmatico Tallinn ha dichiarato: "Vi imploro di diffidare di coloro che promettono precisione e prevedibilità nei sistemi che utilizzano l'IA. Abbiamo già visto l'IA commettere errori di selezione in modi grandi e piccoli - dal riconoscere erroneamente la testa pelata di un arbitro come un pallone da calcio, alle morti di pedoni causate dalle auto a guida autonoma, incapaci di riconoscere le strisce pedonali".

"Dobbiamo essere estremamente cauti nell'affidarci alla precisione di questi sistemi, sia nel settore militare che in quello civile. Gli errori accidentali causati dalle armi autonome hanno il potenziale per scatenare quel tipo di guerre che non dovrebbero mai essere intraprese".

Tallinn ha sottolineato che progettare armi AI più affidabili non è la soluzione. Ha spiegato che "anche quando le armi autonome diventeranno in grado di distinguere perfettamente tra gli esseri umani, renderanno significativamente più facile realizzare genocidi e uccisioni mirate che cercano caratteristiche umane specifiche".

In una dichiarazione finale da inviare al Segretario Generale delle Nazioni Unite, il gruppo ha affermato il suo "forte impegno a lavorare con urgenza e con tutte le parti interessate per uno strumento giuridico internazionale che regoli i sistemi di armi autonome".

La dichiarazione ha aggiunto: "Abbiamo la responsabilità di agire e di mettere in atto le regole necessarie per proteggere l'umanità... Il controllo umano deve prevalere nell'uso della forza".

Più di 115 Stati membri dell'ONU concordano sulla necessità di norme vincolanti che regolino l'AWS, ma eludere il veto di Russia, Cina o Stati Uniti è un'impresa che non può essere considerata un'impresa. US sembra improbabile.

Anthony Aguirre, cosmologo e cofondatore del Future Life Institute, ha riassunto la situazione dicendo: "Il futuro dei bot da macello è qui".

Partecipa al futuro


ISCRIVITI OGGI

Chiaro, conciso, completo. Per conoscere gli sviluppi dell'IA con DailyAI

Eugene van der Watt

Eugene proviene da un background di ingegneria elettronica e ama tutto ciò che è tecnologico. Quando si prende una pausa dal consumo di notizie sull'intelligenza artificiale, lo si può trovare al tavolo da biliardo.

×
 
 

PDF GRATUITO ESCLUSIVO
Rimanere all'avanguardia con DailyAI


 

Iscriviti alla nostra newsletter settimanale e ricevi l'accesso esclusivo all'ultimo eBook di DailyAI: 'Mastering AI Tools: La tua guida 2024 per una maggiore produttività".



 
 

*Iscrivendosi alla nostra newsletter si accetta la nostra Informativa sulla privacy e il nostro Termini e condizioni