OpenAI:s dataintrång: vad vi vet, risker och lärdomar för framtiden

7 juli 2024

  • OpenAI drabbades av ett dataintrång förra året, men det avslöjades först nyligen
  • AI-företag har stora volymer känslig och mycket värdefull data
  • Experter är oroliga för att detta gör dem öppna för attacker från utländska hotaktörer
AI-säkerhet

Ett säkerhetsintrång på OpenAI avslöjade hur AI-företag är lukrativa mål för hackare. 

Intrånget, som inträffade i början av förra året och var nyligen rapporterat av New York Times, handlade om att en hackare fick tillgång till företagets interna meddelandesystem. 

Hackaren hämtade detaljer från anställdas diskussioner om OpenAI:s senaste teknik. Det här är vad vi vet:

  • Intrånget skedde i början av förra året och innebar att en hackare fick tillgång till OpenAI:s interna meddelandesystem.
  • Hackern infiltrerade ett onlineforum där OpenAI-anställda öppet diskuterade företagets senaste AI-teknik och utveckling.
  • Intrånget avslöjade interna diskussioner mellan forskare och anställda, men äventyrade inte koden bakom OpenAI:s AI-system eller några kunddata.
  • OpenAI:s chefer avslöjade händelsen för de anställda under ett allmöte på företagets kontor i San Francisco i april 2023 och informerade styrelsen.
  • Företaget valde att inte offentliggöra intrånget, eftersom man ansåg att ingen information om kunder eller partners hade stulits och att hackaren var en privatperson utan kända kopplingar till en utländsk regering.
  • Leopold Aschenbrenner, en tidigare teknisk programchef för OpenAI, skickade ett PM till företagets styrelse efter intrånget, där han hävdade att OpenAI inte gjorde tillräckligt för att förhindra att utländska regeringar stal företagets hemligheter.
  • Aschenbrenner, som hävdar att han fick sparken för att ha läckt information utanför företaget, uppgav nyligen i en podcast att OpenAI:s säkerhetsåtgärder var otillräckliga för att skydda mot utländska aktörers stöld av viktiga hemligheter.
  • OpenAI har bestridit Aschenbrenners beskrivning av incidenten och företagets säkerhetsåtgärder och hävdar att hans oro inte ledde till att han skiljde sig från företaget.

Vem är Leopold Aschenbrenner?

Leopold Aschenbrenner är en tidigare säkerhetsforskare på OpenAI från företagets superalignment-team.

Superalignment-teamet, som fokuserar på den långsiktiga säkerheten för avancerad artificiell allmän intelligens (AGI), nyligen föll sönder när flera högprofilerade forskare lämnade företaget.

Bland dem fanns OpenAI:s medgrundare Ilya Sutskever, som nyligen bildat ett nytt företag som heter Safe Superintelligence Inc.

Aschenbrenner skrev ett internt memo förra året där han redogjorde för sin oro över OpenAI:s säkerhetsrutiner, som han beskrev som "oerhört otillräckliga".

Han cirkulerade memot bland välrenommerade experter utanför företaget. Veckor senare drabbades OpenAI av dataintrång, så han delade en uppdaterad version med styrelseledamöterna. Kort därefter fick han sparken från OpenAI.

"Vad som också kan vara ett användbart sammanhang är den typ av frågor de ställde mig när de avskedade mig ... frågorna handlade om min syn på AI-framsteg, på AGI, lämplig säkerhetsnivå för AGI, om regeringen borde vara inblandad i AGI, om jag och superalignment-teamet var lojala mot företaget och vad jag höll på med under OpenAI-styrelseevenemangen", avslöjade Aschenbrenner i en podcast.

"Ett annat exempel är när jag tog upp säkerhetsfrågor - de sa att säkerheten var vår främsta prioritet", säger Aschenbrenner. "När det var dags att investera stora resurser eller göra avvägningar för att vidta grundläggande åtgärder, var det alltid så att säkerheten inte prioriterades."

OpenAI har bestridit Aschenbrenners beskrivning av händelsen och företagets säkerhetsåtgärder. "Vi uppskattar de farhågor som Leopold tog upp när han var på OpenAI, och detta ledde inte till att han avskedades", svarade Liz Bourgeois, en taleskvinna för OpenAI.

"Vi delar hans engagemang för att bygga ett säkert A.G.I., men vi håller inte med om många av de påståenden som han sedan har gjort om vårt arbete."

AI-företag blir måltavla för hackare

AI-företag är utan tvekan ett attraktivt mål för hackare på grund av den kolossala volymen värdefull data som de har nycklarna till. 

Dessa data kan delas in i tre huvudkategorier: högkvalitativa utbildningsdataset, användarinteraktionsregister och känslig kundinformation.

Tänk bara på värdet av vilken som helst av dessa kategorier.

Till att börja med är träningsdata den nya oljan. Även om det är relativt enkelt att hämta vissa data från offentliga databaser som LAIONmåste den kontrolleras, rengöras och kompletteras.

Detta är mycket arbetsintensivt. AI-företagen har stora kontrakt med dataföretag som tillhandahåller dessa tjänster i Afrika, Asien och Sydamerika.

Sedan måste vi ta hänsyn till de data som AI-företagen samlar in från användarna. 

Detta är särskilt värdefullt för hackare när man tänker på den finansiella information, kod och andra former av immateriella rättigheter som företag kan dela med sig av med AI-verktyg. 

En nyligen publicerad rapport om cybersäkerhet fann att över hälften av människors interaktioner med chatbottar som ChatGPT innehåller känslig, personligt identifierbar information (PII). En annan fann att 11% av anställda dela konfidentiell affärsinformation med ChatGPT. 

När allt fler företag integrerar AI-verktyg i sin verksamhet måste de dessutom ofta ge tillgång till sina interna databaser, vilket ytterligare ökar säkerhetsriskerna. 

Allt som allt är det en enorm börda för AI-företagen att axla. Och eftersom AI-vapenkapplöpningen intensifieras, och länder som Kina närmar sig snabbt USA, vilket innebär att hotbilden bara kommer att fortsätta att öka. 

Utöver dessa viskningar från OpenAI har vi ännu inte sett några bevis på några högprofilerade intrång, men det är förmodligen bara en tidsfråga. 

Bli en del av framtiden


PRENUMERERA IDAG

Tydlig, kortfattad och heltäckande. Få grepp om AI-utvecklingen med DagligaAI

Sam Jeans

Sam är en vetenskaps- och teknikskribent som har arbetat i olika AI-startups. När han inte skriver läser han medicinska tidskrifter eller gräver igenom lådor med vinylskivor.

×

GRATIS PDF EXKLUSIV
Ligg steget före med DailyAI

Registrera dig för vårt veckovisa nyhetsbrev och få exklusiv tillgång till DailyAI:s senaste e-bok: "Mastering AI Tools: Din 2024-guide till förbättrad produktivitet".

*Genom att prenumerera på vårt nyhetsbrev accepterar du vår Integritetspolicy och våra Villkor och anvisningar