Violazione dei dati di OpenAI: cosa sappiamo, rischi e lezioni per il futuro

7 luglio 2024

  • OpenAI ha subito una violazione dei dati l'anno scorso, ma è stata rivelata solo di recente
  • Le aziende di IA detengono grandi volumi di dati sensibili e di grande valore.
  • Gli esperti temono che questo li lasci aperti ad attacchi da parte di soggetti minacciosi stranieri.
Sicurezza dell'intelligenza artificiale

Una violazione della sicurezza presso OpenAI ha messo in luce come le aziende di IA siano bersagli lucrativi per gli hacker. 

La violazione, che si è verificata all'inizio dello scorso anno ed è stata recentemente riportato dal New York Times, ha coinvolto un hacker che ha avuto accesso ai sistemi di messaggistica interna dell'azienda. 

L'hacker ha raccolto dettagli dalle discussioni dei dipendenti sulle ultime tecnologie di OpenAI. Ecco cosa sappiamo:

  • La violazione è avvenuta all'inizio dell'anno scorso e ha coinvolto un hacker che ha avuto accesso ai sistemi di messaggistica interna di OpenAI.
  • L'hacker si è infiltrato in un forum online in cui i dipendenti di OpenAI discutevano apertamente delle ultime tecnologie e degli sviluppi dell'IA dell'azienda.
  • La violazione ha esposto discussioni interne tra ricercatori e dipendenti, ma non ha compromesso il codice alla base dei sistemi di intelligenza artificiale di OpenAI né i dati dei clienti.
  • I dirigenti di OpenAI hanno rivelato l'incidente ai dipendenti durante una riunione di tutti i dipendenti negli uffici di San Francisco nell'aprile 2023 e hanno informato il consiglio di amministrazione.
  • L'azienda ha scelto di non rivelare pubblicamente la violazione, ritenendo che non fossero state rubate informazioni su clienti o partner e che l'hacker fosse un privato senza legami noti con un governo straniero.
  • Leopold Aschenbrenner, ex responsabile del programma tecnico di OpenAI, ha inviato una nota al consiglio di amministrazione dell'azienda in seguito alla violazione, sostenendo che OpenAI non stava facendo abbastanza per impedire ai governi stranieri di rubare i suoi segreti.
  • Aschenbrenner, che sostiene di essere stato licenziato per aver fatto trapelare informazioni all'esterno dell'azienda, ha dichiarato in un recente podcast che le misure di sicurezza di OpenAI non sono sufficienti a proteggere dal furto di segreti chiave da parte di soggetti stranieri.
  • OpenAI ha contestato la descrizione di Aschenbrenner dell'incidente e delle sue misure di sicurezza, affermando che le sue preoccupazioni non hanno portato alla sua separazione dall'azienda.

Chi è Leopold Aschenbrenner?

Leopold Aschenbrenner è un ex ricercatore sulla sicurezza di OpenAI, appartenente al team di superallineamento dell'azienda.

Il team di superallineamento, incentrato sulla sicurezza a lungo termine dell'intelligenza artificiale generale avanzata (AGI), recentemente è crollato quando diversi ricercatori di alto profilo hanno lasciato l'azienda.

Tra loro c'era anche il cofondatore di OpenAI Ilya Sutskever, che ha recentemente costituito una nuova società denominata Safe Superintelligence Inc.

L'anno scorso Aschenbrenner ha scritto una nota interna in cui esponeva le sue preoccupazioni sulle pratiche di sicurezza di OpenAI, che ha descritto come "egregiamente insufficienti".

Ha fatto circolare il promemoria tra gli esperti di fama esterni all'azienda. Settimane dopo, OpenAI ha subito la violazione dei dati, quindi ha condiviso una versione aggiornata con i membri del consiglio di amministrazione. Poco dopo è stato licenziato da OpenAI.

"Ciò che potrebbe anche essere un contesto utile è il tipo di domande che mi hanno fatto quando mi hanno licenziato... le domande riguardavano il mio punto di vista sul progresso dell'IA, sull'AGI, il livello appropriato di sicurezza per l'AGI, se il governo dovrebbe essere coinvolto nell'AGI, se io e il team di superallineamento eravamo leali all'azienda, e cosa stavo facendo durante gli eventi del consiglio di amministrazione di OpenAI", ha rivelato Aschenbrenner in un podcast.

"Un altro esempio è quando ho sollevato questioni di sicurezza: mi dicevano che la sicurezza è la nostra priorità numero uno", ha dichiarato Aschenbrenner. "Invariabilmente, quando si trattava di investire risorse serie o di fare compromessi per adottare misure di base, la sicurezza non veniva considerata prioritaria".

OpenAI ha contestato la descrizione dell'incidente da parte di Aschenbrenner e le sue misure di sicurezza. "Apprezziamo le preoccupazioni sollevate da Leopold mentre era in OpenAI, e questo non ha portato alla sua separazione", ha risposto Liz Bourgeois, portavoce di OpenAI.

"Pur condividendo il suo impegno a costruire un'A.G.I. sicura, non siamo d'accordo con molte delle affermazioni che ha fatto nel frattempo sul nostro lavoro".

Le aziende di intelligenza artificiale diventano un obiettivo di hacking

Le aziende di intelligenza artificiale sono indubbiamente un obiettivo interessante per gli hacker a causa del volume colossale di dati preziosi di cui sono in possesso. 

Questi dati rientrano in tre categorie principali: set di dati di formazione di alta qualità, record di interazione con gli utenti e informazioni sensibili sui clienti.

Considerate il valore di una qualsiasi di queste categorie.

Per cominciare, i dati di formazione sono il nuovo petrolio. Sebbene sia relativamente facile recuperare alcuni dati da database pubblici come LAION, deve essere controllata, pulita e aumentata.

Si tratta di un'operazione ad alta intensità di lavoro. Le aziende di AI hanno contratti enormi con società di dati che forniscono questi servizi in Africa, Asia e Sud America.

Dobbiamo poi considerare i dati che le aziende di IA raccolgono dagli utenti. 

Ciò è particolarmente prezioso per gli hacker se si considerano le informazioni finanziarie, il codice e altre forme di proprietà intellettuale che le aziende potrebbero condividere con gli strumenti di intelligenza artificiale. 

Un recente rapporto sulla sicurezza informatica ha rilevato che oltre la metà delle interazioni delle persone con chatbot come ChatGPT include informazioni sensibili e di identificazione personale (PII). Un altro ha rilevato che 11% di dipendenti condividere informazioni commerciali riservate con ChatGPT. 

Inoltre, man mano che un numero sempre maggiore di aziende integra gli strumenti di IA nelle proprie attività, spesso devono concedere l'accesso ai propri database interni, aumentando ulteriormente i rischi per la sicurezza. 

Nel complesso, si tratta di un fardello enorme da sostenere per le aziende di IA. E come La corsa agli armamenti dell'intelligenza artificiale si intensifica, con paesi come la Cina che stanno rapidamente colmando il divario con gli Stati Uniti, e la superficie di minaccia continuerà ad espandersi. 

Oltre a questi sussurri di OpenAI, non abbiamo ancora visto prove di violazioni di alto profilo, ma probabilmente è solo questione di tempo. 

Partecipa al futuro


ISCRIVITI OGGI

Chiaro, conciso, completo. Per conoscere gli sviluppi dell'IA con DailyAI

Sam Jeans

Sam è uno scrittore di scienza e tecnologia che ha lavorato in diverse startup di intelligenza artificiale. Quando non scrive, lo si può trovare a leggere riviste mediche o a scavare tra scatole di dischi in vinile.

×

PDF GRATUITO ESCLUSIVO
Rimanere all'avanguardia con DailyAI

Iscriviti alla nostra newsletter settimanale e ricevi l'accesso esclusivo all'ultimo eBook di DailyAI: 'Mastering AI Tools: La tua guida 2024 per una maggiore produttività".

*Iscrivendosi alla nostra newsletter si accetta la nostra Informativa sulla privacy e il nostro Termini e condizioni