Gli agenti di intelligenza artificiale svolgono compiti complessi orientati agli obiettivi con una supervisione limitata. Un gruppo di ricercatori ha proposto tre misure che potrebbero aumentare la visibilità degli agenti di IA per renderli più sicuri.
La maggior parte delle persone pensa all'IA in termini di chatbot, come ChatGPT. Gli si chiede un testo e lui genera una risposta. Lo sviluppo davvero entusiasmante dell'IA è quello di vederla impiegata come agente, un sistema in grado di svolgere autonomamente dei compiti per perseguire un obiettivo finale.
Un semplice esempio è il Coniglio R1 che può utilizzare l'intelligenza artificiale come agente per navigare sul web e prenotare un volo per un utente. Questi agenti hanno una supervisione limitata su come svolgono i loro compiti o su quali altri agenti interagiscono per raggiungere i loro obiettivi.
I ricercatori hanno analizzato i rischi potenziali che gli agenti di intelligenza artificiale comportano e come mitigarli aumentando la visibilità su dove, perché, come e da chi vengono utilizzati determinati agenti di intelligenza artificiale.
Gli autori del carta erano del Quebec AI Institute, dell'Università di Harvard, della Harvard Law School, dell'Università di Oxford, della Cooperative AI Foundation, dell'Università di Cambridge e dell'Università di Toronto.
Rischi dell'agente AI
Se a un agente IA viene dato un obiettivo da ottimizzare, potrebbe tagliare i ponti dal punto di vista etico o legale per raggiungere il suo obiettivo o agire in modi che potrebbero causare danni sostanziali se non c'è un umano nel giro.
I ricercatori hanno identificato cinque rischi principali associati ad agenti di intelligenza artificiale scarsamente supervisionati.
- Uso dannoso - Un attore malintenzionato poco esperto potrebbe utilizzare un agente altamente capace per automatizzare le pipeline end-to-end del crimine informatico o per sviluppare un'attività dannosa. biologico o strumenti chimici.
- Eccessiva dipendenza e disimpegno - L'eccessivo affidamento agli agenti di IA per automatizzare compiti complessi in situazioni ad alto rischio come i sistemi finanziari o legali potrebbe avere gravi conseguenze.
- Impatti ritardati e diffusi - Se un'intelligenza artificiale ha obiettivi a lungo termine, l'impatto delle decisioni sbagliate che prende può diventare evidente solo molto tempo dopo il suo impiego. Un impatto ritardato potrebbe anche far sì che il danno si diffonda in tutta l'organizzazione o la comunità prima che venga rilevato.
- Rischi multi-agente - Un agente di intelligenza artificiale può essere stato testato come sistema singolo, ma potrebbero sorgere rischi imprevisti quando più agenti interagiscono tra loro.
- Subagenti - Un agente potrebbe decidere che per raggiungere il suo obiettivo deve creare dei subagenti di se stesso. Potrebbe chiamare più copie di se stesso o mettere a punto un altro agente. Senza sapere se un agente ha creato dei subagenti, è difficile rilevare un comportamento dannoso.
Come aumentare la visibilità
Abbiamo bisogno di strutture di governance per stabilire linee guida che responsabilizzino i principali stakeholder. A tal fine, è essenziale una maggiore visibilità sugli agenti di intelligenza artificiale impiegati.
I ricercatori hanno proposto tre modi per farlo.
- Identificatori dell'agente - Garantire l'identificazione di un agente consentirebbe agli esseri umani, alle organizzazioni o ad altri agenti di gestire le loro interazioni con esso. Inoltre, aiuterebbe a collegare un'azione a un agente specifico e all'organizzazione che l'ha realizzata o distribuita.
- Monitoraggio in tempo reale - Il monitoraggio del comportamento di un agente in tempo reale consentirebbe allo sviluppatore di segnalare immediatamente le violazioni di regole chiare o di monitorare le interazioni dell'agente con altri agenti. Potrebbe anche segnalare un agente che crea più istanze di se stesso, che supera i limiti finanziari o che utilizza risorse di calcolo oltre un certo limite.
- Registri di attività - Realisticamente, i danni causati dagli agenti saranno rilevati dopo il fatto, piuttosto che prevenuti. I registri delle attività che registrano alcuni input e output di un agente sarebbero utili per determinare come le cose sono andate male e cosa correggere.
L'attuazione di queste misure potrebbe contribuire a mitigare i rischi che gli agenti di intelligenza artificiale presentano. Tuttavia, l'implementazione del monitoraggio in tempo reale e dei registri delle attività senza violare le leggi sulla privacy potrebbe essere impegnativa.
Ci stiamo definitivamente allontanando dalle interazioni basate sulle app, in quanto gli agenti di intelligenza artificiale agiscono sempre più autonomamente per svolgere i compiti che gli assegniamo. Ma ci sono dei rischi. Il documento sottolinea che la gestione di questi rischi richiederà la volontà politica, l'infrastruttura sociotecnica e l'influenza pubblica. Una migliore visibilità sulle modalità esatte di funzionamento degli agenti di IA è cruciale per far sì che ciò avvenga.