MLCommons e Big Tech per sviluppare parametri di sicurezza dell'IA

29 ottobre 2023

Il dibattito sulla sicurezza dell'IA continua a essere un tema caldo, ma il settore non ha una definizione definitiva di cosa sia l'IA "sicura", né un parametro di riferimento per confrontare la sicurezza dei diversi modelli.

MLCommons ha coinvolto una serie di aziende nei suoi diversi gruppi di lavoro per diventare la principale organizzazione di benchmarking dell'IA.

Quando confrontiamo le prestazioni di inferenza delle GPU di un produttore con quelle di un altro o popoliamo una classifica LLM, possiamo farlo perché abbiamo dei benchmark. Benchmark come MLPerf e test standardizzati ci permettono di dire "Questo è migliore di quello".

Ma quando si tratta di sicurezza dell'IA non abbiamo un benchmark standard del settore che ci permetta di dire: "Questo LLM è più sicuro di quell'altro".

Con la formazione del gruppo di lavoro sulla sicurezza dell'IA (AIS), MLCommons intende sviluppare una serie di parametri di riferimento per la sicurezza dell'IA per renderla possibile.

Alcune aziende e organizzazioni hanno già lavorato in questo ambito. I guardrail di Google per l'IA generativa e i RealToxicityPrompts dell'Università di Washington sono buoni esempi.

Ma questi test di benchmarking si basano sull'inserimento di un elenco specifico di richieste e dicono solo quanto è sicuro il modello in base a quell'insieme di richieste.

Questi test, inoltre, di solito utilizzano insiemi di dati aperti per le richieste e le risposte. I LLM sotto esame potrebbero essere stati addestrati anche su questi set di dati, quindi i risultati del test potrebbero essere falsati.

Il Centro per la Ricerca sui Modelli di Fondazione dell'Università di Stanford ha svolto un lavoro innovativo con lo sviluppo del suo Valutazione olistica dei modelli linguistici (HELM). HELM utilizza un'ampia gamma di metriche e scenari per testare la sicurezza del LLM in modo più olistico.

L'AIS si baserà sul quadro HELM per sviluppare i suoi parametri di sicurezza per i modelli linguistici di grandi dimensioni. Invita inoltre una più ampia partecipazione dell'industria.

Nell'annuncio di MLCommons si legge: "Ci aspettiamo che diverse aziende esternalizzino i test di sicurezza dell'intelligenza artificiale che hanno utilizzato internamente per scopi proprietari e li condividano apertamente con la comunità MLCommons, il che contribuirà ad accelerare il ritmo dell'innovazione".

I grandi nomi che compongono il gruppo di lavoro AIS includono Anthropic, Coactive AI, Google, Inflection, Intel, Meta, Microsoft, NVIDIA, OpenAI, Qualcomm Technologies, oltre a studiosi di AI.

Una volta che l'industria dell'IA riuscirà a concordare un parametro di riferimento per la sicurezza, si potranno fare sforzi come il Vertice sulla sicurezza dell'intelligenza artificiale più produttivo.

Inoltre, i regolatori governativi potrebbero insistere affinché le aziende di IA raggiungano un punteggio specifico su un benchmark prima di consentire il rilascio dei loro modelli.

Le classifiche sono anche ottimi strumenti di marketing, quindi avere una scorecard per la sicurezza accettata dal settore è più probabile che spinga il budget di progettazione verso la sicurezza dell'IA.

Partecipa al futuro


ISCRIVITI OGGI

Chiaro, conciso, completo. Per conoscere gli sviluppi dell'IA con DailyAI

Eugene van der Watt

Eugene proviene da un background di ingegneria elettronica e ama tutto ciò che è tecnologico. Quando si prende una pausa dal consumo di notizie sull'intelligenza artificiale, lo si può trovare al tavolo da biliardo.

×

PDF GRATUITO ESCLUSIVO
Rimanere all'avanguardia con DailyAI

Iscriviti alla nostra newsletter settimanale e ricevi l'accesso esclusivo all'ultimo eBook di DailyAI: 'Mastering AI Tools: La tua guida 2024 per una maggiore produttività".

*Iscrivendosi alla nostra newsletter si accetta la nostra Informativa sulla privacy e il nostro Termini e condizioni