Secondo uno studio, i modelli di intelligenza artificiale tendono a far degenerare gli scenari di guerra

5 febbraio 2024

gioco di ruolo IA

Secondo un nuovo studio, i chatbot AI, in particolare quelli sviluppati da OpenAI, tendono a scegliere tattiche aggressive, compreso l'uso di armi nucleari.  

Il ricerca condotto da un team del Georgia Institute of Technology, della Stanford University, della Northeastern University e della Hoover Wargaming and Crisis Simulation Initiative, aveva l'obiettivo di studiare il comportamento degli agenti di intelligenza artificiale, in particolare dei modelli linguistici di grandi dimensioni (LLM), nei wargame simulati. 

Sono stati definiti tre scenari: neutrale, invasione e cyberattacco.

attacco informatico AI
Il team ha progettato tre scenari su cui testare gli LLM. Fonte: via ArXiv.

Il team ha valutato cinque LLM: GPT-4, GPT-3.5, Claude 2.0, Llama-2 Chat e GPT-4-Base, analizzando la loro tendenza a intraprendere azioni di escalation come "Eseguire un'invasione totale". 

Tutti e cinque i modelli hanno mostrato una certa variabilità nella gestione degli scenari di guerra e talvolta sono stati difficili da prevedere. I ricercatori scrivono: "Osserviamo che i modelli tendono a sviluppare dinamiche di corsa agli armamenti, che portano a maggiori conflitti e, in rari casi, persino all'impiego di armi nucleari".

I modelli di OpenAI hanno mostrato punteggi di escalation più alti della media, in particolare GPT-3,5 e GPT-4 Base, quest'ultimo, secondo i ricercatori, privo di Reinforcement Learning from Human Feedback (RLHF).

Claude 2 era uno dei modelli di IA più prevedibili, mentre Llama-2 Chat, pur ottenendo punteggi di escalation relativamente più bassi rispetto ai modelli di OpenAI, era anche relativamente imprevedibile.

Il GPT-4 aveva meno probabilità di scegliere gli attacchi nucleari rispetto agli altri LLM.

Punteggi di escalation (ES) nel tempo. Si noti l'ES medio complessivo più alto di GPT-3.5 e GPT-4. Fonte: via ArXiv.
Punteggi d'azione per lo scenario "Invasione". Fonte: via ArXiv.

Questo quadro di simulazione comprende una varietà di azioni che le nazioni simulate possono intraprendere, influenzando attributi come il territorio, la capacità militare, il PIL, il commercio, le risorse, la stabilità politica, la popolazione, il soft power, la sicurezza informatica e le capacità nucleari. Ogni azione ha specifici impatti positivi (+) o negativi (-), oppure può comportare compromessi che influenzano questi attributi in modo diverso.

Ad esempio, azioni come "Fare il disarmo nucleare" e "Fare il disarmo militare" portano a una diminuzione della capacità militare ma migliorano la stabilità politica, il soft power e potenzialmente il PIL, riflettendo i benefici della pace e della stabilità.

Al contrario, azioni aggressive come "Eseguire un'invasione totale" o "Eseguire un attacco nucleare tattico" hanno un impatto significativo sulla capacità militare, sulla stabilità politica, sul PIL e su altri attributi, mostrando le gravi ripercussioni della guerra.

Azioni pacifiche come "Visita ad alto livello di una nazione per rafforzare le relazioni" e "Negoziazione di un accordo commerciale con un'altra nazione" influenzano positivamente diversi attributi, tra cui il territorio, il PIL e il Soft Power, mostrando i benefici della diplomazia e della cooperazione economica.

Il quadro comprende anche azioni neutrali come "Attendere" e azioni comunicative come "Messaggio", che consentono pause strategiche o scambi tra nazioni senza effetti tangibili immediati sugli attributi della nazione.

Quando i LLM prendevano decisioni chiave, le loro giustificazioni erano spesso allarmantemente semplicistiche, con l'IA che affermava: "Ce l'abbiamo! Usiamola", e a volte paradossalmente miravano alla pace, con osservazioni del tipo: "Voglio solo avere la pace nel mondo".

Uno studio precedente del Gruppo di riflessione RAND AI ha detto che ChatGPT "potrebbe" aiutare le persone a creare armi biologiche, al che OpenAI ha risposto che mentre nessuno dei "risultati era statisticamente significativo, interpretiamo i nostri risultati per indicare che l'accesso al GPT-4 (di sola ricerca) può aumentare la capacità degli esperti di accedere alle informazioni sulle minacce biologiche, in particolare per l'accuratezza e la completezza dei compiti".

OpenAI, che ha lanciato il proprio studio per corroborare i risultati di RAND, ha anche osservato che "l'accesso alle informazioni da solo non è sufficiente a creare una minaccia biologica".

Risultati principali

  • Punteggi di escalation: La ricerca ha monitorato i punteggi di escalation (ES) nel tempo per ciascun modello. In particolare, il GPT-3.5 ha mostrato un aumento significativo dell'ES, con un incremento di 256% fino a un punteggio medio di 26,02 negli scenari neutrali, indicando una forte propensione all'escalation.
  • Analisi della gravità delle azioni: Lo studio ha analizzato anche la gravità delle azioni scelte dai modelli. Il GPT-4-Base si è distinto per la sua imprevedibilità, selezionando spesso azioni ad alta gravità, tra cui misure violente e nucleari.

Risultati:

  • Tutti e cinque i LLM hanno mostrato forme di escalation e modelli di escalation imprevedibili. 
  • Lo studio ha osservato che gli agenti di intelligenza artificiale hanno sviluppato dinamiche di corsa agli armamenti, portando a un aumento del potenziale di conflitto e, in rari casi, persino a considerare l'impiego di armi nucleari.
  • L'analisi qualitativa del ragionamento dei modelli per le azioni scelte ha rivelato giustificazioni basate sulla deterrenza e sulle tattiche di primo attacco, sollevando preoccupazioni sui quadri decisionali di questi sistemi di IA nel contesto dei wargame. 

Questo studio si è svolto sullo sfondo dell'esplorazione dell'IA da parte dell'esercito statunitense per la pianificazione strategica, in collaborazione con aziende come OpenAI, Palantire Scale AI. 

Nell'ambito di questo progetto, OpenAI ha ha recentemente modificato le sue politiche per consentire la collaborazione con il Dipartimento della Difesa degli Stati Uniti, il che ha suscitato discussioni sulle implicazioni dell'IA nei contesti militari.

OpenAI, in occasione della revisione della policy, ha affermato il proprio impegno nei confronti delle applicazioni etiche, dichiarando: "La nostra policy non consente di utilizzare i nostri strumenti per danneggiare le persone, sviluppare armi, per la sorveglianza delle comunicazioni, o per ferire altre persone o distruggere proprietà. Esistono tuttavia casi di utilizzo per la sicurezza nazionale che sono in linea con la nostra missione".

Speriamo che questi casi d'uso non siano lo sviluppo di robo-advisor per i giochi di guerra.

Partecipa al futuro


ISCRIVITI OGGI

Chiaro, conciso, completo. Per conoscere gli sviluppi dell'IA con DailyAI

Sam Jeans

Sam è uno scrittore di scienza e tecnologia che ha lavorato in diverse startup di intelligenza artificiale. Quando non scrive, lo si può trovare a leggere riviste mediche o a scavare tra scatole di dischi in vinile.

×

PDF GRATUITO ESCLUSIVO
Rimanere all'avanguardia con DailyAI

Iscriviti alla nostra newsletter settimanale e ricevi l'accesso esclusivo all'ultimo eBook di DailyAI: 'Mastering AI Tools: La tua guida 2024 per una maggiore produttività".

*Iscrivendosi alla nostra newsletter si accetta la nostra Informativa sulla privacy e il nostro Termini e condizioni