Le principali aziende di IA hanno accettato una nuova serie di impegni volontari in materia di sicurezza, annunciati dai governi del Regno Unito e della Corea del Sud prima di un vertice di due giorni sull'IA a Seul.
16 aziende tecnologiche hanno aderito alla struttura, tra cui Amazon, Google, Meta, Microsoft, OpenAI, xAI e Zhipu AI.
È il primo quadro concordato da aziende del Nord America, dell'Europa, del Medio Oriente (The Technology Innovation Institute) e dell'Asia, compresa la Cina (Zhipu AI).
Tra gli impegni, le aziende si impegnano a "non sviluppare o distribuire affatto un modello" se non è possibile gestire i rischi più gravi.
Le aziende hanno inoltre accettato di pubblicare le modalità di misurazione e mitigazione dei rischi associati ai modelli di IA.
Il nuovi impegni dopo che eminenti ricercatori di intelligenza artificiale, tra cui Yoshua Bengio, Geoffrey Hinton, Andrew Yao e Yuval Noah Harari, hanno pubblicato un carta in Scienza denominata Gestire i rischi estremi dell'IA in un contesto di rapidi progressi.
Il documento contiene diverse raccomandazioni che hanno contribuito a orientare il nuovo quadro di sicurezza:
- Supervisione e onestà: Sviluppare metodi per garantire che i sistemi di IA siano trasparenti e producano risultati affidabili.
- Robustezza: Garantire che i sistemi di intelligenza artificiale si comportino in modo prevedibile in situazioni nuove.
- Interpretabilità e trasparenza: Comprendere i processi decisionali dell'IA.
- Sviluppo inclusivo dell'IA: Attenuare i pregiudizi e integrare valori diversi.
- Valutazione delle azioni pericolose: Sviluppo di metodi rigorosi per valutare le capacità dell'IA e prevedere i rischi prima dell'implementazione.
- Valutazione dell'allineamento dell'IA: Garantire che i sistemi di IA siano in linea con gli obiettivi previsti e non perseguano obiettivi dannosi.
- Valutazioni del rischio: Valutare in modo esaustivo i rischi sociali associati alla diffusione dell'IA.
- Resilienza: Creare difese contro le minacce abilitate dall'intelligenza artificiale, come i cyberattacchi e la manipolazione sociale.
Anna Makanju, vicepresidente degli affari globali di OpenAIIl settore della sicurezza dell'IA è in rapida evoluzione e siamo particolarmente lieti di approvare l'enfasi posta dagli impegni sul perfezionamento degli approcci insieme alla scienza. Restiamo impegnati a collaborare con altri laboratori di ricerca, aziende e governi per garantire che l'IA sia sicura e porti benefici a tutta l'umanità".
Michael Sellitto, responsabile degli Affari globali di AnthropicGli impegni di Frontier AI in materia di sicurezza sottolineano l'importanza di uno sviluppo sicuro e responsabile dei modelli di frontiera. In quanto organizzazione incentrata sulla sicurezza, ci siamo posti come priorità l'implementazione di politiche rigorose, la conduzione di un ampio red teaming e la collaborazione con esperti esterni per garantire la sicurezza dei nostri modelli. Questi impegni rappresentano un importante passo avanti nell'incoraggiare lo sviluppo e la diffusione responsabile dell'IA".
Un altro quadro volontario
Questo rispecchia gli "impegni volontari" assunti in occasione del Casa Bianca nel luglio dello scorso anno da Amazon, Anthropic, Google, Inflection AI, Meta, Microsoft, e OpenAI per incoraggiare uno sviluppo sicuro, protetto e trasparente della tecnologia AI.
Queste nuove regole stabiliscono che le 16 aziende "forniranno trasparenza pubblica" sulle loro implementazioni di sicurezza, tranne nei casi in cui ciò potrebbe aumentare i rischi o divulgare informazioni commerciali sensibili in modo sproporzionato rispetto ai benefici per la società.
Il primo ministro britannico Rishi Sunak ha dichiarato: "È una prima mondiale avere così tante aziende leader nel settore dell'IA, provenienti da così tante parti del mondo, che concordano tutte gli stessi impegni sulla sicurezza dell'IA".
Si tratta di una novità a livello mondiale, perché le aziende al di fuori dell'Europa e del Nord America, come la cinese Zhipu.ai, si è unito ad esso.
Tuttavia, gli impegni volontari per la sicurezza dell'IA sono in voga da tempo.
Le aziende di IA rischiano poco ad accettarle, perché non ci sono mezzi per farle rispettare. Questo indica anche quanto siano poco incisive in caso di necessità.
Dan Hendrycks, consulente per la sicurezza della startup xAI di Elon Musk, ha osservato che gli impegni volontari contribuiranno a "gettare le basi per una regolamentazione nazionale concreta".
Un commento giusto, ma per sua stessa ammissione, secondo alcuni importanti ricercatori, dobbiamo ancora "gettare le basi" quando rischi estremi bussano alla porta.
Non tutti sono d'accordo su Quanto è pericolosa l'intelligenza artificialema resta il fatto che il sentimento alla base di questi quadri non si sta ancora allineando con le azioni.
Le nazioni formano una rete di sicurezza per l'IA
In occasione di questo piccolo vertice sulla sicurezza dell'IA che si terrà a Seul, in Corea del Sud, dieci nazioni e l'Unione Europea (UE) hanno deciso di creare una rete internazionale di "Istituti per la sicurezza dell'IA" sostenuti pubblicamente.
Il "Dichiarazione d'intenti di Seul sulla cooperazione internazionale in materia di scienza della sicurezza dell'intelligenza artificiale"L'accordo coinvolge paesi come Regno Unito, Stati Uniti, Australia, Canada, Francia, Germania, Italia, Giappone, Corea del Sud, Singapore e UE.
In particolare, la Cina era assente dall'accordo. Tuttavia, il governo cinese ha partecipato e l'azienda cinese Zhipu.ai ha sottoscritto il quadro descritto sopra.
La Cina ha già espresso in precedenza la volontà di cooperare sulla sicurezza dell'IA e si è trovata in colloqui "segreti" con il US.
Questo vertice intermedio più piccolo si è svolta con meno clamore rispetto alla prima, tenutasi a Bletchley Park nel Regno Unito lo scorso novembre.
Tuttavia, hanno aderito diverse figure note del settore tecnologico, tra cui Elon Musk, l'ex CEO di Google Eric Schmidt e DeepMind fondatore Sir Demis Hassabis.
Ulteriori impegni e discussioni emergeranno nei prossimi giorni.