Regno Unito e Stati Uniti sviluppano nuove linee guida globali per la sicurezza dell'IA

27 novembre 2023

Man mano che le tecnologie AI si diffondono, diventano anche bersaglio dei criminali informatici. Le agenzie di sicurezza informatica del Regno Unito e degli Stati Uniti hanno sviluppato nuove linee guida su come rendere l'IA più sicura.

L'obiettivo dichiarato di le linee guida è quello di consentire alle aziende di IA di "costruire sistemi di IA che funzionino come previsto, siano disponibili quando necessario e lavorino senza rivelare dati sensibili a parti non autorizzate".

In pratica, come assicurarsi che la vostra IA non possa essere dirottata o consegnare i dati privati degli utenti.

Le linee guida elencano i principi di progettazione che dovrebbero guidare lo sviluppo di prodotti di IA durante l'intero ciclo di vita. Le quattro aree chiave affrontate sono in sintesi:

  1. Design sicuro
    Valutare il rischio e modellare le minacce durante la fase di progettazione.
  2. Sviluppo sicuro
    Gestite la catena di fornitura, la documentazione e le risorse digitali in modo sicuro durante la realizzazione del prodotto. Se prendete scorciatoie non sicure, assicuratevi di tornare indietro e correggerle.
  3. Distribuzione sicura
    Quando date agli utenti l'accesso al vostro prodotto, assicuratevi che non possano accedere a parti sensibili tramite l'API o altri mezzi. Distribuite il prodotto solo dopo un rigoroso red teaming e test.
  4. Funzionamento e manutenzione sicuri
    Monitorate il vostro prodotto, distribuite gli aggiornamenti con attenzione e non nascondete quando le cose vanno male.

Le linee guida sono poco dettagliate dal punto di vista tecnico, ma sono un buon inizio. Oltre al Regno Unito e agli Stati Uniti, altri 16 Paesi hanno approvato le linee guida.

L'elenco completo dei firmatari è il seguente:
Australia, Canada, Cile, Estonia, Francia, Germania, Israele, Italia, Giappone, Nuova Zelanda, Nigeria, Norvegia, Polonia, Repubblica di Corea, Singapore, Regno Unito, Stati Uniti d'America.

Dall'elenco mancano in particolare la Cina e la Russia, probabilmente le fonti più significative di attacchi informatici sui Paesi occidentali.

Le linee guida non sono vincolanti, quindi i Paesi che hanno approvato il documento in realtà stanno solo dicendo: "Pensiamo che questi siano dei buoni principi di progettazione dell'IA a cui attenersi". Inoltre, nonostante il Regno Unito sia all'avanguardia in questi sforzi, ha dichiarato che non applicherà alcuna nuova legislazione sullo sviluppo dell'IA nel prossimo futuro.

È nell'interesse dei Paesi rendere i loro prodotti di IA il più sicuri possibile, ma resta da vedere se sia possibile o meno. Le vulnerabilità zero-day nei software e nei sistemi commerciali sembrano essere un evento quotidiano.

Con rapporti regolari su jailbreak exploit dei sistemi di intelligenza artificiale, è ragionevole aspettarsi che questi nuovi modelli possano essere adeguatamente protetti dagli attacchi informatici?

I pericoli immaginati, o previsti, dell'IA sono una potenziale minaccia futura. I criminali informatici, che senza dubbio stanno attualmente sondando le vulnerabilità dell'IA, sono un pericolo più chiaro e presente.

Partecipa al futuro


ISCRIVITI OGGI

Chiaro, conciso, completo. Per conoscere gli sviluppi dell'IA con DailyAI

Eugene van der Watt

Eugene proviene da un background di ingegneria elettronica e ama tutto ciò che è tecnologico. Quando si prende una pausa dal consumo di notizie sull'intelligenza artificiale, lo si può trovare al tavolo da biliardo.

×

PDF GRATUITO ESCLUSIVO
Rimanere all'avanguardia con DailyAI

Iscriviti alla nostra newsletter settimanale e ricevi l'accesso esclusivo all'ultimo eBook di DailyAI: 'Mastering AI Tools: La tua guida 2024 per una maggiore produttività".

*Iscrivendosi alla nostra newsletter si accetta la nostra Informativa sulla privacy e il nostro Termini e condizioni