Alcuni dei nomi più importanti delle Big Tech si sono riuniti per fondare la Coalition for Secure AI (CoSAI).
Non esiste ancora uno standard globale per le pratiche di sviluppo sicuro dell'IA, e le attuali misure di sicurezza dell'IA sono frammentate e spesso mantenute internamente dalle aziende che creano modelli di IA.
CoSAI è un'iniziativa open-source ospitata dall'organismo di standardizzazione globale OASIS che mira a standardizzare e condividere le migliori pratiche relative allo sviluppo e all'implementazione sicuri dell'IA.
Tra le aziende Big Tech che sostengono l'iniziativa figurano Google, IBM, Intel, Microsoft, NVIDIA e PayPal. Altri sponsor fondatori sono Amazon, Anthropic, Cisco, Chainguard, Cohere, GenLab, OpenAI e Wiz.
In particolare, sono assenti Apple e Meta.
CoSAI mira a sviluppare e condividere misure di sicurezza complete che affrontino rischi quali:
- rubare il modello
- avvelenamento dei dati di formazione
- iniettare input dannosi tramite prompt injection
- prevenzione degli abusi in scala
- attacchi di inferenza di appartenenza
- attacchi di inversione del modello o attacchi di inversione del gradiente per inferire informazioni private
- estrarre informazioni riservate dai dati di addestramento
Lo statuto del CoSAI Il progetto "non prevede che i seguenti argomenti rientrino nell'ambito di applicazione: disinformazione, allucinazioni, contenuti odiosi o abusivi, pregiudizi, generazione di malware, generazione di contenuti di phishing o altri argomenti nell'ambito della sicurezza dei contenuti".
Google ha già il suo Google Secure AI Framework (SAIF) e OpenAI ha il suo progetto di allineamento assediato. Tuttavia, fino a CoSAI non c'è stato un forum per unire le migliori pratiche di sicurezza dell'IA che gli operatori del settore hanno sviluppato in modo indipendente.
Abbiamo visto piccole startup come Mistral hanno sperimentato un'ascesa vertiginosa grazie ai modelli di IA che hanno prodotto, ma molte di queste aziende più piccole non hanno le risorse per finanziare i team di sicurezza dell'IA.
CoSAI sarà una preziosa fonte gratuita di best practice sulla sicurezza dell'IA per i piccoli e grandi operatori del settore.
Heather Adkins, vicepresidente e responsabile della resilienza della sicurezza informatica di Google, ha dichiarato: "Utilizziamo l'IA da molti anni e ne vediamo il continuo potenziale per i difensori, ma riconosciamo anche le opportunità per gli avversari.
"CoSAI aiuterà le organizzazioni, grandi e piccole, a integrare l'IA in modo sicuro e responsabile, aiutandole a sfruttarne i vantaggi e a mitigarne i rischi".
Nick Hamilton, Head of Governance, Risk, and Compliance di OpenAI, ha dichiarato: "Lo sviluppo e l'implementazione di tecnologie di IA che siano sicure e affidabili è al centro della missione di OpenAI.
"Crediamo che lo sviluppo di standard e pratiche solide sia essenziale per garantire un uso sicuro e responsabile dell'IA e ci impegniamo a collaborare in tutto il settore per farlo.
"Attraverso la nostra partecipazione a CoSAI, intendiamo contribuire con la nostra esperienza e le nostre risorse alla creazione di un ecosistema di IA sicuro e vantaggioso per tutti."
Speriamo che alle persone piaccia Ilya Sutskever e altri che se ne sono andati OpenAI a causa di problemi di sicurezza si offrono volontariamente per dare il loro contributo alla CoSAI.