Il Regno Unito sta negoziando con le principali aziende tecnologiche, tra cui OpenAI e DeepMind, con l'obiettivo di ottenere una visione più approfondita della sicurezza delle loro tecnologie AI.
Mentre il Regno Unito si prepara ad affrontare il Vertice sulla sicurezza dell'intelligenza artificialeIl governo ha espresso il desiderio di sondare i modelli di IA e di vedere all'interno della "scatola nera". Fonti informate sulle trattative rivelano che i rappresentanti stanno cercando attivamente di ottenere l'autorizzazione a scavare nei meccanismi interni dei modelli avanzati di IA.
I principali sviluppatori di IA sono notoriamente cauti nel condividere tali informazioni: potrebbero involontariamente rivelare dettagli riservati sui prodotti o prove di dati di addestramento protetti da copyright?
Il governo britannico sostiene che capire come funzionano i modelli avanzati di IA consentirà alle autorità di individuare preventivamente i pericoli, ma non ha spiegato con precisione cosa vuole sapere. Esistono molti modelli di IA open-source che funzionano in modo simile alle IA proprietarie come ChatGPT.
Negli Stati Uniti, diversi sviluppatori di IA di primo piano hanno sottoscritto una quadro volontario che prevede che i loro modelli vengano testati in modo indipendente prima del rilascio, cosa che già avviene in Cina.
All'inizio di giugno, un accordo preliminare ha visto DeepMind, OpenAI e Anthropic acconsentire a concedere l'accesso ai modelli al governo britannico per la ricerca e la valutazione della sicurezza. Tuttavia, le specifiche di questo accesso rimangono indefinite.
In una dichiarazione, Anthropic ha accennato alla possibilità di fornire il modello tramite un'API (Application Programming Interface) per bilanciare le preoccupazioni di entrambe le parti.
Mentre un'API fornisce un'occhiata limitata alle operazioni del modello, il governo britannico sta facendo pressioni per una comprensione "più profonda", secondo quanto riferito da addetti ai lavori che hanno informato la Financial Times.
Gli addetti ai lavori di DeepMind concordano sul fatto che l'accesso ai modelli per la ricerca sulla sicurezza sarebbe utile, ma OpenAI non ha commentato.
Una fonte vicina al governo ha spiegato: "Queste aziende non stanno facendo ostruzionismo, ma in generale si tratta di una questione spinosa e hanno ragionevoli preoccupazioni", "Non c'è un pulsante che queste aziende possono premere per far sì che accada. Si tratta di questioni di ricerca aperte e irrisolte".
Il vertice sulla sicurezza dell'IA che si terrà nel Regno Unito all'inizio di novembre è una risposta diretta alle richieste di una regolamentazione più rigorosa in materia di IA. È prevista la partecipazione di diverse parti interessate, in particolare di funzionari cinesi.
Secondo gli addetti ai lavori, il governo britannico sta lavorando per finalizzare un accordo che sarà presentato al vertice.