Een beveiligingslek bij OpenAI legde bloot hoe AI-bedrijven lucratieve doelwitten zijn voor hackers.
De inbreuk, die begin vorig jaar plaatsvond en onlangs gemeld van de New York Times, waarbij een hacker toegang kreeg tot de interne berichtensystemen van het bedrijf.
De hacker pikte details op uit gesprekken van werknemers over de nieuwste technologieën van OpenAI. Dit is wat we weten:
- Het lek deed zich begin vorig jaar voor en een hacker kreeg toegang tot de interne berichtensystemen van OpenAI.
- De hacker infiltreerde in een online forum waar OpenAI-medewerkers openlijk de nieuwste AI-technologieën en -ontwikkelingen van het bedrijf bespraken.
- Het lek legde interne discussies tussen onderzoekers en werknemers bloot, maar bracht de code achter OpenAI's AI-systemen of klantgegevens niet in gevaar.
- OpenAI leidinggevenden onthulden het incident aan de werknemers tijdens een algemene vergadering in het kantoor van het bedrijf in San Francisco in april 2023 en brachten de raad van bestuur op de hoogte.
- Het bedrijf koos ervoor om de inbreuk niet publiekelijk bekend te maken, omdat het geloofde dat er geen informatie over klanten of partners was gestolen en dat de hacker een privépersoon was zonder bekende banden met een buitenlandse overheid.
- Leopold Aschenbrenner, een voormalig technisch programmamanager van OpenAI, stuurde na de inbraak een memo naar de raad van bestuur van het bedrijf met het argument dat OpenAI niet genoeg deed om te voorkomen dat buitenlandse overheden zijn geheimen zouden stelen.
- Aschenbrenner, die beweert ontslagen te zijn omdat hij informatie naar buiten het bedrijf lekte, verklaarde in een recente podcast dat de veiligheidsmaatregelen van OpenAI onvoldoende bescherming boden tegen diefstal van sleutelgeheimen door buitenlandse actoren.
- OpenAI heeft Aschenbrenner's karakterisering van het incident en zijn beveiligingsmaatregelen betwist en stelt dat zijn zorgen niet hebben geleid tot zijn vertrek bij het bedrijf.
Wie is Leopold Aschenbrenner?
Leopold Aschenbrenner is een voormalig veiligheidsonderzoeker bij OpenAI van het superalignment-team van het bedrijf.
Het superalignment-team, gericht op de veiligheid op lange termijn van geavanceerde kunstmatige algemene intelligentie (AGI), onlangs uit elkaar gevallen toen verschillende prominente onderzoekers het bedrijf verlieten.
Onder hen was OpenAI medeoprichter Ilya Sutskever, die onlangs een nieuw bedrijf opgericht genaamd Safe Superintelligence Inc.
Aschenbrenner schreef vorig jaar een interne memo waarin hij zijn bezorgdheid uitte over de beveiligingspraktijken van OpenAI, die hij omschreef als "flagrant ontoereikend".
Hij verspreidde de memo onder gerenommeerde experts buiten het bedrijf. Weken later werd OpenAI getroffen door het datalek, dus deelde hij een bijgewerkte versie met bestuursleden. Kort daarna werd hij ontslagen bij OpenAI.
"Wat ook een nuttige context zou kunnen zijn, is het soort vragen dat ze me stelden toen ze me ontsloegen... de vragen gingen over mijn opvattingen over AI-vooruitgang, over AGI, het juiste beveiligingsniveau voor AGI, of de overheid betrokken zou moeten zijn bij AGI, of ik en het superalignment-team loyaal waren aan het bedrijf, en wat ik van plan was tijdens de OpenAI-bestuursvergaderingen," onthulde Aschenbrenner in een podcast.
"Een ander voorbeeld is wanneer ik beveiligingskwesties aankaartte - ze vertelden me dan dat beveiliging onze eerste prioriteit was," verklaarde Aschenbrenner. "Steevast kreeg beveiliging geen prioriteit toen het tijd werd om serieuze middelen te investeren of afwegingen te maken om basismaatregelen te nemen."
OpenAI heeft Aschenbrenner's karakterisering van het incident en haar veiligheidsmaatregelen betwist. "We waarderen de zorgen die Leopold naar voren bracht toen hij bij OpenAI werkte, en dit heeft niet geleid tot zijn ontslag," reageerde Liz Bourgeois, een woordvoerster van OpenAI.
"Hoewel we zijn toewijding delen om een veilig A.G.I. op te bouwen, zijn we het niet eens met veel van de beweringen die hij sindsdien over ons werk heeft gedaan."
AI-bedrijven worden doelwit van hackers
AI-bedrijven zijn ongetwijfeld een aantrekkelijk doelwit voor hackers vanwege de enorme hoeveelheid waardevolle gegevens waar ze de sleutel toe in handen hebben.
Deze gegevens vallen uiteen in drie hoofdcategorieën: hoogwaardige trainingsdatasets, records van gebruikersinteracties en gevoelige klantinformatie.
Denk eens aan de waarde van een van deze categorieën.
Om te beginnen zijn trainingsgegevens de nieuwe olie. Hoewel het relatief eenvoudig is om bepaalde gegevens uit openbare databases zoals LAIONHet moet worden gecontroleerd, schoongemaakt en aangevuld.
Dit is zeer arbeidsintensief. AI-bedrijven hebben grote contracten met databedrijven die deze diensten leveren in Afrika, Azië en Zuid-Amerika.
Vervolgens moeten we kijken naar de gegevens die AI-bedrijven van gebruikers verzamelen.
Dit is vooral waardevol voor hackers als je kijkt naar de financiële informatie, code en andere vormen van intellectueel eigendom die bedrijven kunnen delen met AI-tools.
Een recent rapport over cyberbeveiliging ontdekte dat meer dan de helft van de interacties van mensen met chatbots zoals ChatGPT gevoelige, persoonlijk identificeerbare informatie (PII) bevatten. Een andere ontdekte dat 11% van werknemers vertrouwelijke bedrijfsinformatie delen met ChatGPT.
Naarmate meer bedrijven AI-tools integreren in hun activiteiten, moeten ze bovendien vaak toegang verlenen tot hun interne databases, waardoor de beveiligingsrisico's verder toenemen.
Al met al is het een enorme last voor AI-bedrijven. En aangezien Als de AI-wapenwedloop intensiever wordt en landen als China de kloof met de VS snel dichten, zal het dreigingsoppervlak alleen maar groter worden.
Naast deze geruchten van OpenAI hebben we nog geen bewijs gezien van opvallende inbreuken, maar het is waarschijnlijk slechts een kwestie van tijd.