OpenAI-datalækage: hvad vi ved, risici og erfaringer for fremtiden

7. juli 2024

  • OpenAI blev udsat for et databrud sidste år, men det blev først afsløret for nylig
  • AI-virksomheder ligger inde med store mængder følsomme og meget værdifulde data
  • Eksperter er bekymrede for, at dette gør dem åbne for angreb fra udenlandske trusselsaktører.
AI-sikkerhed

Et sikkerhedsbrud hos OpenAI afslørede, hvordan AI-virksomheder er lukrative mål for hackere. 

Bruddet, som fandt sted i begyndelsen af sidste år og var rapporterede for nylig af New York Times, involverede en hacker, der fik adgang til virksomhedens interne beskedsystemer. 

Hackeren stjal detaljer fra medarbejdernes diskussioner om OpenAI's nyeste teknologier. Her er, hvad vi ved:

  • Bruddet skete i begyndelsen af sidste år og involverede en hacker, der fik adgang til OpenAI's interne beskedsystemer.
  • Hackeren infiltrerede et onlineforum, hvor OpenAI-medarbejdere åbent diskuterede virksomhedens nyeste AI-teknologier og -udviklinger.
  • Bruddet afslørede interne diskussioner mellem forskere og medarbejdere, men kompromitterede ikke koden bag OpenAI's AI-systemer eller nogen kundedata.
  • OpenAI's ledere afslørede hændelsen for medarbejderne under et all-hands-møde på virksomhedens kontor i San Francisco i april 2023 og informerede bestyrelsen.
  • Virksomheden valgte ikke at offentliggøre bruddet, da den mente, at ingen oplysninger om kunder eller partnere var blevet stjålet, og at hackeren var en privatperson uden kendte forbindelser til en udenlandsk regering.
  • Leopold Aschenbrenner, en tidligere teknisk programleder for OpenAI, sendte et memo til virksomhedens bestyrelse efter bruddet, hvor han argumenterede for, at OpenAI ikke gjorde nok for at forhindre udenlandske regeringer i at stjæle dets hemmeligheder.
  • Aschenbrenner, som hævder, at han blev fyret for at lække oplysninger uden for virksomheden, sagde for nylig i en podcast, at OpenAI's sikkerhedsforanstaltninger var utilstrækkelige til at beskytte mod udenlandske aktørers tyveri af vigtige hemmeligheder.
  • OpenAI har bestridt Aschenbrenners karakteristik af hændelsen og virksomhedens sikkerhedsforanstaltninger og sagt, at hans bekymringer ikke førte til, at han blev skilt fra virksomheden.

Hvem er Leopold Aschenbrenner?

Leopold Aschenbrenner er tidligere sikkerhedsforsker hos OpenAI fra virksomhedens superalignment-team.

Superalignment-teamet fokuserer på den langsigtede sikkerhed ved avanceret kunstig generel intelligens (AGI), faldt fra hinanden for nylig da flere højt profilerede forskere forlod virksomheden.

Blandt dem var OpenAI-medstifteren Ilya Sutskever, som har for nylig dannet et nyt selskab der hedder Safe Superintelligence Inc.

Aschenbrenner skrev sidste år et internt memo, der beskrev hans bekymringer over OpenAI's sikkerhedspraksis, som han beskrev som "uhyre utilstrækkelig".

Han lod notatet cirkulere blandt anerkendte eksperter uden for virksomheden. Uger senere blev OpenAI ramt af databruddet, så han delte en opdateret version med bestyrelsesmedlemmerne. Kort tid efter blev han fyret fra OpenAI.

"Hvad der også kan være en nyttig kontekst, er den slags spørgsmål, de stillede mig, da de fyrede mig ... spørgsmålene handlede om mit syn på AI-fremskridt, på AGI, det passende sikkerhedsniveau for AGI, om regeringen skulle være involveret i AGI, om jeg og superalignment-teamet var loyale over for virksomheden, og hvad jeg havde gang i under OpenAI-bestyrelsens arrangementer", afslørede Aschenbrenner i en podcast.

"Et andet eksempel er, når jeg rejste sikkerhedsspørgsmål - de ville fortælle mig, at sikkerhed er vores førsteprioritet", sagde Aschenbrenner. "Når det var tid til at investere seriøse ressourcer eller foretage afvejninger for at træffe grundlæggende foranstaltninger, blev sikkerhed ikke prioriteret."

OpenAI har bestridt Aschenbrenners karakteristik af hændelsen og sine sikkerhedsforanstaltninger. "Vi sætter pris på de bekymringer, Leopold gav udtryk for, mens han var hos OpenAI, og det førte ikke til hans afskedigelse," svarede Liz Bourgeois, en talskvinde for OpenAI.

"Selv om vi deler hans engagement i at opbygge et sikkert A.G.I., er vi uenige i mange af de påstande, han siden har fremsat om vores arbejde."

AI-virksomheder bliver mål for hackere

AI-virksomheder er utvivlsomt et attraktivt mål for hackere på grund af den kolossale mængde værdifulde data, de har nøglen til. 

Disse data falder i tre hovedkategorier: træningsdatasæt af høj kvalitet, optegnelser over brugerinteraktioner og følsomme kundeoplysninger.

Tænk bare på værdien af en hvilken som helst af disse kategorier.

Til at begynde med er træningsdata den nye olie. Selvom det er relativt nemt at hente data fra offentlige databaser som LAIONskal den kontrolleres, rengøres og udvides.

Det er meget arbejdskrævende. AI-virksomheder har Store kontrakter med datafirmaer, der leverer disse tjenester i hele Afrika, Asien og Sydamerika.

Og så skal vi se på de data, som AI-virksomhederne indsamler fra brugerne. 

Det er særligt værdifuldt for hackere, når man tænker på de finansielle oplysninger, koder og andre former for intellektuel ejendom, som virksomheder kan dele med AI-værktøjer. 

En nylig cybersikkerhedsrapport fandt, at over halvdelen af folks interaktioner med chatbots som ChatGPT omfatter følsomme, personligt identificerbare oplysninger (PII). En anden fandt ud af, at 11% af medarbejdere dele fortrolige forretningsoplysninger med ChatGPT. 

Og efterhånden som flere virksomheder integrerer AI-værktøjer i deres drift, er de ofte nødt til at give adgang til deres interne databaser, hvilket øger sikkerhedsrisikoen yderligere. 

Alt i alt er det en enorm byrde for AI-virksomheder at bære. Og som AI-våbenkapløbet intensiveres, og lande som Kina indhenter hurtigt USA's forspring, og trusselsbilledet vil kun blive større og større. 

Ud over disse forlydender fra OpenAI har vi endnu ikke set beviser på nogen højt profilerede brud, men det er nok kun et spørgsmål om tid. 

Deltag i fremtiden


TILMELD DIG I DAG

Klar, kortfattet, omfattende. Få styr på AI-udviklingen med DailyAI

Sam Jeans

Sam er videnskabs- og teknologiforfatter og har arbejdet i forskellige AI-startups. Når han ikke skriver, kan han finde på at læse medicinske tidsskrifter eller grave i kasser med vinylplader.

×

GRATIS PDF EKSKLUSIVT
Vær på forkant med DailyAI

Tilmeld dig vores ugentlige nyhedsbrev og få eksklusiv adgang til DailyAI's seneste e-bog: 'Mastering AI Tools: Din 2024-guide til forbedret produktivitet'.

*Ved at tilmelde dig vores nyhedsbrev accepterer du vores Politik for beskyttelse af personlige oplysninger og vores Vilkår og betingelser