Londra, Regno Unito - La scorsa settimana, in occasione della London Tech Week, il Primo Ministro Rishi Sunak ha dichiarato che OpenAI, Google DeepMind e Anthropic hanno promesso di fornire "accesso anticipato o prioritario" ai loro modelli di IA.
La mossa intende aiutare la ricerca nel campo dell'intelligenza artificiale incentrata sulla valutazione e sulla sicurezza. Questa dichiarazione fa seguito alla Il piano del governo britannico per convocare una riunione mondiale sulla sicurezza dell'IA.
Il Primo Ministro Sunak ha espresso il suo impegno nella ricerca sulla sicurezza dell'IA, affermando: "Faremo ricerca all'avanguardia sulla sicurezza dell'IA qui nel Regno Unito". Stiamo investendo nella sicurezza delle IA più denaro di qualsiasi altro governo, compresi 100 milioni di sterline per il nostro task team di esperti".
Ha poi spiegato: "Stiamo collaborando con i laboratori di frontiera - Google DeepMind, OpenAI e Anthropic. E sono lieto di dire che hanno accettato di fornire un accesso anticipato o prioritario ai modelli per motivi di ricerca e sicurezza, al fine di aiutarci a costruire valutazioni migliori e a comprendere il potenziale e i pericoli di questi sistemi".
Il Primo Ministro Sunak ha tracciato un collegamento con le conferenze COP sul clima per promuovere il Regno Unito come centro mondiale per la regolamentazione della sicurezza dell'IA. "Proprio come ci uniamo attraverso la COP per affrontare il cambiamento climatico, così il Regno Unito ospiterà il primo vertice sulla sicurezza globale dell'IA nel corso di quest'anno", ha dichiarato a proposito dell'imminente incontro. "Mi propongo di fare del Regno Unito non solo la sede intellettuale ma anche geografica della regolamentazione mondiale sulla sicurezza delle IA".
L'attuale enfasi sulla sicurezza dell'IA riflette un sostanziale cambiamento di atteggiamento da parte del governo. In passato, il governo britannico ha favorito una posizione favorevole all'innovazione e principi flessibili per la governance dell'IA, rifiutando la necessità di regolamenti tecnici o agenzie di monitoraggio.
Tuttavia, con le crescenti preoccupazioni sui possibili pericoli e sul controllo dell'IA, Downing Street ha rapidamente rivalutato il suo piano.
Se da un lato la promessa delle aziende di IA di fornire un accesso più ampio ai loro modelli offre al Regno Unito la possibilità di essere all'avanguardia negli approcci di revisione e audit dell'IA, dall'altro c'è il rischio che l'industria influisca sulle misure di sicurezza dell'IA del Paese.
I giganti dell'IA potrebbero essere in grado di plasmare le future regole dell'IA che riguardano le loro aziende, plasmando il dibattito sulla ricerca sulla sicurezza dell'IA e influenzando la definizione delle priorità.
Per garantire la generazione di risultati affidabili e rigorosi, i programmi di sicurezza dell'IA del governo britannico devono includere ricercatori indipendenti, organizzazioni della società civile e le persone più esposte ai danni dell'automazione.
Gli etici hanno sottolineato la necessità di affrontare le ingiustizie reali create dalla tecnologia dell'IA, tra cui il pregiudizio, la discriminazione, l'invasione della privacy, la violazione della proprietà intellettuale e lo sfruttamento dell'ambiente.
Mentre il Regno Unito procede con il suo programma di sicurezza dell'IA, combinare la partecipazione dell'industria con una supervisione indipendente sarà fondamentale per sviluppare un ecosistema dell'IA responsabile e inclusivo, che protegga dai possibili pericoli massimizzando i vantaggi dell'intelligenza artificiale.