Et sikkerhetsbrudd hos OpenAI avslørte hvordan AI-selskaper er lukrative mål for hackere.
Bruddet, som skjedde tidlig i fjor og ble nylig rapportert av New York Times, involverte en hacker som fikk tilgang til selskapets interne meldingssystemer.
Hackeren stjal detaljer fra diskusjoner mellom ansatte om OpenAIs nyeste teknologi. Dette er hva vi vet:
- Bruddet skjedde tidlig i fjor, og innebar at en hacker fikk tilgang til OpenAIs interne meldingssystemer.
- Hackeren infiltrerte et nettforum der OpenAI-ansatte åpent diskuterte selskapets nyeste AI-teknologier og -utvikling.
- Bruddet avslørte interne diskusjoner mellom forskere og ansatte, men kompromitterte ikke koden bak OpenAIs AI-systemer eller kundedata.
- OpenAI-ledelsen avslørte hendelsen for de ansatte under et allmøte på selskapets kontor i San Francisco i april 2023, og informerte styret.
- Selskapet valgte å ikke offentliggjøre innbruddet, ettersom det mente at ingen informasjon om kunder eller samarbeidspartnere var blitt stjålet, og at hackeren var en privatperson uten noen kjente bånd til en utenlandsk regjering.
- Leopold Aschenbrenner, en tidligere teknisk programsjef i OpenAI, sendte et notat til selskapets styre etter innbruddet, der han hevdet at OpenAI ikke gjorde nok for å hindre utenlandske myndigheter i å stjele hemmelighetene deres.
- Aschenbrenner, som hevder at han fikk sparken for å ha lekket informasjon utenfor selskapet, uttalte nylig i en podkast at OpenAIs sikkerhetstiltak ikke var tilstrekkelige til å beskytte mot utenlandske aktørers tyveri av viktige hemmeligheter.
- OpenAI har bestridt Aschenbrenners karakteristikk av hendelsen og selskapets sikkerhetstiltak, og har uttalt at bekymringene hans ikke førte til at han forlot selskapet.
Hvem er Leopold Aschenbrenner?
Leopold Aschenbrenner er tidligere sikkerhetsforsker hos OpenAI, og har jobbet i selskapets superalignment-team.
Superalignment-teamet, som fokuserer på den langsiktige sikkerheten til avansert kunstig generell intelligens (AGI), nylig falt fra hverandre da flere høyt profilerte forskere forlot selskapet.
Blant dem var OpenAIs medgrunnlegger Ilya Sutskever, som nylig dannet et nytt selskap med navnet Safe Superintelligence Inc.
Aschenbrenner skrev i fjor et internt notat der han beskrev sin bekymring for OpenAIs sikkerhetspraksis, som han beskrev som "svært utilstrekkelig".
Han sendte notatet rundt til anerkjente eksperter utenfor selskapet. Uker senere ble OpenAI utsatt for datainnbrudd, og han delte derfor en oppdatert versjon med styremedlemmene. Kort tid etter fikk han sparken fra OpenAI.
"Det som også kan være nyttig kontekst, er hva slags spørsmål de stilte meg da de sparket meg ... spørsmålene handlet om mitt syn på AI-fremskritt, på AGI, det passende sikkerhetsnivået for AGI, om myndighetene burde være involvert i AGI, om jeg og superalignment-teamet var lojale mot selskapet, og hva jeg holdt på med under OpenAI-styrets arrangementer", avslørte Aschenbrenner i en podcast.
"Et annet eksempel er når jeg tok opp sikkerhetsspørsmål - de fortalte meg at sikkerhet var vår førsteprioritet", sier Aschenbrenner. "Når det var på tide å investere store ressurser eller gjøre avveininger for å iverksette grunnleggende tiltak, var det alltid slik at sikkerhet ikke ble prioritert."
OpenAI har bestridt Aschenbrenners karakteristikk av hendelsen og selskapets sikkerhetstiltak. "Vi setter pris på bekymringene Leopold tok opp mens han var hos OpenAI, og dette førte ikke til at han ble oppsagt", svarte Liz Bourgeois, en talskvinne for OpenAI.
"Selv om vi deler hans engasjement for å bygge et trygt A.G.I., er vi uenige i mange av påstandene han siden har kommet med om arbeidet vårt."
AI-selskaper blir mål for hackere
AI-selskaper er utvilsomt et attraktivt mål for hackere på grunn av den kolossale mengden verdifulle data de sitter med nøklene til.
Disse dataene kan deles inn i tre hovedkategorier: opplæringsdatasett av høy kvalitet, brukerinteraksjonsregistre og sensitiv kundeinformasjon.
Bare tenk på verdien av hvilken som helst av disse kategoriene.
Til å begynne med er treningsdata den nye oljen. Selv om det er relativt enkelt å hente ut data fra offentlige databaser som LAIONmå den kontrolleres, rengjøres og utvides.
Dette er svært arbeidskrevende. AI-selskaper har store kontrakter med dataselskaper som tilbyr disse tjenestene i Afrika, Asia og Sør-Amerika.
Så må vi ta hensyn til dataene AI-selskapene samler inn fra brukerne.
Dette er spesielt verdifullt for hackere når man tenker på den økonomiske informasjonen, koden og andre former for immaterielle rettigheter som bedrifter kan dele med AI-verktøy.
En fersk rapport om cybersikkerhet fant at over halvparten av interaksjonene med chatboter som ChatGPT inneholder sensitiv, personlig identifiserbar informasjon (PII). En annen fant at 11% av ansatte dele konfidensiell forretningsinformasjon med ChatGPT.
Etter hvert som flere virksomheter integrerer AI-verktøy i driften, må de ofte gi tilgang til sine interne databaser, noe som øker sikkerhetsrisikoen ytterligere.
Alt i alt er det en enorm byrde for AI-selskapene å bære. Og ettersom AI-våpenkappløpet intensiveres, og land som Kina tar raskt igjen forspranget til USA, vil trusselbildet bare fortsette å vokse.
Utover disse ryktene fra OpenAI har vi ikke sett bevis på noen høyprofilerte brudd ennå, men det er sannsynligvis bare et spørsmål om tid.