Datenschutzverletzung bei OpenAI: Was wir wissen, Risiken und Lehren für die Zukunft

Juli 7, 2024

  • OpenAI erlitt letztes Jahr eine Datenschutzverletzung, die jedoch erst vor kurzem aufgedeckt wurde
  • KI-Unternehmen verfügen über große Mengen an sensiblen und äußerst wertvollen Daten
  • Experten befürchten, dass sie dadurch für Angriffe ausländischer Bedrohungsakteure anfällig sind.
KI-Sicherheit

Eine Sicherheitsverletzung bei OpenAI hat gezeigt, dass KI-Unternehmen lukrative Ziele für Hacker sind. 

Der Verstoß, der Anfang letzten Jahres stattfand, wurde kürzlich berichtet Die New York Times berichtet, dass sich ein Hacker Zugang zu den internen Nachrichtensystemen des Unternehmens verschafft hat. 

Der Hacker entwendete Details aus Mitarbeitergesprächen über die neuesten Technologien von OpenAI. Das wissen wir:

  • Der Verstoß ereignete sich Anfang letzten Jahres, als ein Hacker auf die internen Nachrichtensysteme von OpenAI zugriff.
  • Der Hacker drang in ein Online-Forum ein, in dem OpenAI-Mitarbeiter offen über die neuesten KI-Technologien und Entwicklungen des Unternehmens diskutierten.
  • Durch die Sicherheitsverletzung wurden interne Diskussionen zwischen Forschern und Mitarbeitern aufgedeckt, aber weder der Code hinter den KI-Systemen von OpenAI noch Kundendaten wurden gefährdet.
  • Die Führungskräfte von OpenAI enthüllten den Vorfall den Mitarbeitern während einer Betriebsversammlung in den Büros des Unternehmens in San Francisco im April 2023 und informierten den Vorstand.
  • Das Unternehmen entschied sich, die Sicherheitsverletzung nicht öffentlich bekannt zu geben, da es davon ausging, dass keine Informationen über Kunden oder Partner gestohlen worden waren und dass es sich bei dem Hacker um eine Privatperson handelte, die keine Verbindungen zu einer ausländischen Regierung hatte.
  • Leopold Aschenbrenner, ein ehemaliger technischer Programmmanager von OpenAI, schickte nach dem Einbruch ein Memo an den Vorstand des Unternehmens, in dem er argumentierte, dass OpenAI nicht genug tue, um ausländische Regierungen davon abzuhalten, seine Geheimnisse zu stehlen.
  • Aschenbrenner, der behauptet, er sei gefeuert worden, weil er Informationen nach außen dringen ließ, erklärte kürzlich in einem Podcast, die Sicherheitsmaßnahmen von OpenAI seien unzureichend, um den Diebstahl von Schlüsselgeheimnissen durch ausländische Akteure zu verhindern.
  • OpenAI hat Aschenbrenners Charakterisierung des Vorfalls und seiner Sicherheitsmaßnahmen bestritten und erklärt, dass seine Bedenken nicht zu seiner Trennung vom Unternehmen geführt haben.

Wer ist Leopold Aschenbrenner?

Leopold Aschenbrenner ist ein ehemaliger Sicherheitsforscher bei OpenAI aus dem Superalignment-Team des Unternehmens.

Das Superalignment-Team, das sich mit der langfristigen Sicherheit fortgeschrittener künstlicher Intelligenz (AGI) befasst, kürzlich auseinandergefallen als mehrere hochrangige Forscher das Unternehmen verließen.

Unter ihnen war OpenAI-Mitbegründer Ilya Sutskever, der hat kürzlich ein neues Unternehmen gegründet mit dem Namen Safe Superintelligence Inc.

Aschenbrenner verfasste letztes Jahr ein internes Memo, in dem er seine Bedenken über die Sicherheitspraktiken von OpenAI darlegte, die er als "ungeheuerlich unzureichend" bezeichnete.

Er verbreitete das Memo unter angesehenen Experten außerhalb des Unternehmens. Wochen später wurde OpenAI von der Datenpanne betroffen, so dass er eine aktualisierte Version an die Vorstandsmitglieder weitergab. Kurz darauf wurde er von OpenAI entlassen.

"Die Fragen betrafen meine Ansichten über den Fortschritt der KI, über AGI, das angemessene Maß an Sicherheit für AGI, die Frage, ob die Regierung in AGI involviert sein sollte, ob ich und das Superalignment-Team dem Unternehmen gegenüber loyal waren und was ich während der OpenAI-Board-Events gemacht habe", verriet Aschenbrenner in einem Podcast.

"Ein anderes Beispiel ist, wenn ich Sicherheitsfragen ansprach - sie sagten mir, Sicherheit sei unsere oberste Priorität", so Aschenbrenner. "Wenn es an der Zeit war, ernsthafte Ressourcen zu investieren oder Kompromisse einzugehen, um grundlegende Maßnahmen zu ergreifen, wurde der Sicherheit keine Priorität eingeräumt."

OpenAI hat Aschenbrenners Charakterisierung des Vorfalls und seiner Sicherheitsmaßnahmen bestritten. "Wir wissen die Bedenken zu schätzen, die Leopold während seiner Zeit bei OpenAI geäußert hat, und dies hat nicht zu seiner Trennung geführt", antwortete Liz Bourgeois, eine Sprecherin von OpenAI.

"Wir teilen zwar sein Engagement für den Aufbau einer sicheren A.G.I., sind aber mit vielen der Behauptungen, die er seitdem über unsere Arbeit aufgestellt hat, nicht einverstanden."

KI-Unternehmen werden zum Ziel von Hackern

KI-Unternehmen sind zweifellos ein attraktives Ziel für Hacker, da sie über eine enorme Menge an wertvollen Daten verfügen. 

Diese Daten lassen sich in drei Hauptkategorien einteilen: hochwertige Trainingsdatensätze, Aufzeichnungen von Benutzerinteraktionen und sensible Kundeninformationen.

Denken Sie nur an den Wert jeder einzelnen dieser Kategorien.

Zunächst einmal sind Trainingsdaten das neue Öl. Es ist zwar relativ einfach, einige Daten aus öffentlichen Datenbanken abzurufen, wie LAIONmuss sie kontrolliert, gereinigt und ergänzt werden.

Dies ist sehr arbeitsintensiv. AI-Unternehmen haben Großaufträge mit Datenunternehmen, die diese Dienste in Afrika, Asien und Südamerika anbieten.

Dann müssen wir die Daten berücksichtigen, die KI-Unternehmen von den Nutzern sammeln. 

Dies ist für Hacker besonders wertvoll, wenn man bedenkt, dass Unternehmen Finanzdaten, Code und andere Formen von geistigem Eigentum mit KI-Tools teilen können. 

Ein aktueller Bericht zur Cybersicherheit fand heraus, dass über die Hälfte der Interaktionen von Menschen mit Chatbots wie ChatGPT sensible, persönlich identifizierbare Informationen (PII) enthalten. Eine andere Studie ergab, dass 11% der Beschäftigten vertrauliche Geschäftsinformationen mit ChatGPT zu teilen. 

Und da immer mehr Unternehmen KI-Tools in ihren Betrieb integrieren, müssen sie häufig Zugriff auf ihre internen Datenbanken gewähren, was die Sicherheitsrisiken weiter erhöht. 

Alles in allem ist dies eine enorme Belastung für KI-Unternehmen. Und da Das Wettrüsten im Bereich der künstlichen Intelligenz verschärft sich, und Länder wie China schließen rasch zu den USA auf, so dass sich die Bedrohungslage weiter verschärfen wird. 

Abgesehen von diesen Gerüchten von OpenAI haben wir noch keine Beweise für irgendwelche hochkarätigen Einbrüche gesehen, aber das ist wahrscheinlich nur eine Frage der Zeit. 

Join The Future


HEUTE ABONNIEREN

Klar, prägnant, umfassend. Behalten Sie den Überblick über KI-Entwicklungen mit DailyAI

Sam Jeans

Sam ist ein Wissenschafts- und Technologiewissenschaftler, der in verschiedenen KI-Startups gearbeitet hat. Wenn er nicht gerade schreibt, liest er medizinische Fachzeitschriften oder kramt in Kisten mit Schallplatten.

×

KOSTENLOSES PDF EXKLUSIV
Mit DailyAI immer einen Schritt voraus

Melden Sie sich für unseren wöchentlichen Newsletter an und erhalten Sie exklusiven Zugang zum neuesten eBook von DailyAI: 'Mastering AI Tools: Ihr Leitfaden für mehr Produktivität im Jahr 2024".

*Mit der Anmeldung zu unserem Newsletter akzeptieren Sie unsere Datenschutzbestimmungen und unsere Bedingungen und Konditionen