Possiamo aumentare la visibilità degli agenti AI per renderli più sicuri?

26 gennaio 2024

Gli agenti di intelligenza artificiale svolgono compiti complessi orientati agli obiettivi con una supervisione limitata. Un gruppo di ricercatori ha proposto tre misure che potrebbero aumentare la visibilità degli agenti di IA per renderli più sicuri.

La maggior parte delle persone pensa all'IA in termini di chatbot, come ChatGPT. Gli si chiede un testo e lui genera una risposta. Lo sviluppo davvero entusiasmante dell'IA è quello di vederla impiegata come agente, un sistema in grado di svolgere autonomamente dei compiti per perseguire un obiettivo finale.

Un semplice esempio è il Coniglio R1 che può utilizzare l'intelligenza artificiale come agente per navigare sul web e prenotare un volo per un utente. Questi agenti hanno una supervisione limitata su come svolgono i loro compiti o su quali altri agenti interagiscono per raggiungere i loro obiettivi.

I ricercatori hanno analizzato i rischi potenziali che gli agenti di intelligenza artificiale comportano e come mitigarli aumentando la visibilità su dove, perché, come e da chi vengono utilizzati determinati agenti di intelligenza artificiale.

Gli autori del carta erano del Quebec AI Institute, dell'Università di Harvard, della Harvard Law School, dell'Università di Oxford, della Cooperative AI Foundation, dell'Università di Cambridge e dell'Università di Toronto.

Rischi dell'agente AI

Se a un agente IA viene dato un obiettivo da ottimizzare, potrebbe tagliare i ponti dal punto di vista etico o legale per raggiungere il suo obiettivo o agire in modi che potrebbero causare danni sostanziali se non c'è un umano nel giro.

I ricercatori hanno identificato cinque rischi principali associati ad agenti di intelligenza artificiale scarsamente supervisionati.

  • Uso dannoso - Un attore malintenzionato poco esperto potrebbe utilizzare un agente altamente capace per automatizzare le pipeline end-to-end del crimine informatico o per sviluppare un'attività dannosa. biologico o strumenti chimici.
  • Eccessiva dipendenza e disimpegno - L'eccessivo affidamento agli agenti di IA per automatizzare compiti complessi in situazioni ad alto rischio come i sistemi finanziari o legali potrebbe avere gravi conseguenze.
  • Impatti ritardati e diffusi - Se un'intelligenza artificiale ha obiettivi a lungo termine, l'impatto delle decisioni sbagliate che prende può diventare evidente solo molto tempo dopo il suo impiego. Un impatto ritardato potrebbe anche far sì che il danno si diffonda in tutta l'organizzazione o la comunità prima che venga rilevato.
  • Rischi multi-agente - Un agente di intelligenza artificiale può essere stato testato come sistema singolo, ma potrebbero sorgere rischi imprevisti quando più agenti interagiscono tra loro.
  • Subagenti - Un agente potrebbe decidere che per raggiungere il suo obiettivo deve creare dei subagenti di se stesso. Potrebbe chiamare più copie di se stesso o mettere a punto un altro agente. Senza sapere se un agente ha creato dei subagenti, è difficile rilevare un comportamento dannoso.

Come aumentare la visibilità

Abbiamo bisogno di strutture di governance per stabilire linee guida che responsabilizzino i principali stakeholder. A tal fine, è essenziale una maggiore visibilità sugli agenti di intelligenza artificiale impiegati.

I ricercatori hanno proposto tre modi per farlo.

  • Identificatori dell'agente - Garantire l'identificazione di un agente consentirebbe agli esseri umani, alle organizzazioni o ad altri agenti di gestire le loro interazioni con esso. Inoltre, aiuterebbe a collegare un'azione a un agente specifico e all'organizzazione che l'ha realizzata o distribuita.
  • Monitoraggio in tempo reale - Il monitoraggio del comportamento di un agente in tempo reale consentirebbe allo sviluppatore di segnalare immediatamente le violazioni di regole chiare o di monitorare le interazioni dell'agente con altri agenti. Potrebbe anche segnalare un agente che crea più istanze di se stesso, che supera i limiti finanziari o che utilizza risorse di calcolo oltre un certo limite.
  • Registri di attività - Realisticamente, i danni causati dagli agenti saranno rilevati dopo il fatto, piuttosto che prevenuti. I registri delle attività che registrano alcuni input e output di un agente sarebbero utili per determinare come le cose sono andate male e cosa correggere.

L'attuazione di queste misure potrebbe contribuire a mitigare i rischi che gli agenti di intelligenza artificiale presentano. Tuttavia, l'implementazione del monitoraggio in tempo reale e dei registri delle attività senza violare le leggi sulla privacy potrebbe essere impegnativa.

Ci stiamo definitivamente allontanando dalle interazioni basate sulle app, in quanto gli agenti di intelligenza artificiale agiscono sempre più autonomamente per svolgere i compiti che gli assegniamo. Ma ci sono dei rischi. Il documento sottolinea che la gestione di questi rischi richiederà la volontà politica, l'infrastruttura sociotecnica e l'influenza pubblica. Una migliore visibilità sulle modalità esatte di funzionamento degli agenti di IA è cruciale per far sì che ciò avvenga.

Partecipa al futuro


ISCRIVITI OGGI

Chiaro, conciso, completo. Per conoscere gli sviluppi dell'IA con DailyAI

Eugene van der Watt

Eugene proviene da un background di ingegneria elettronica e ama tutto ciò che è tecnologico. Quando si prende una pausa dal consumo di notizie sull'intelligenza artificiale, lo si può trovare al tavolo da biliardo.

×

PDF GRATUITO ESCLUSIVO
Rimanere all'avanguardia con DailyAI

Iscriviti alla nostra newsletter settimanale e ricevi l'accesso esclusivo all'ultimo eBook di DailyAI: 'Mastering AI Tools: La tua guida 2024 per una maggiore produttività".

*Iscrivendosi alla nostra newsletter si accetta la nostra Informativa sulla privacy e il nostro Termini e condizioni