ChatGPT-Logins werden in Dark-Web-Foren und -Marktplätzen veröffentlicht

Juni 23, 2023

OpenAI-Login-Leck

Singapurisches Beratungsunternehmen für Cybersicherheit Gruppe-IB hat ein alarmierendes Leck bei ChatGPT-Anmeldungen entdeckt.

Nach Angaben von Group-IB wurden mehr als 101.134 Geräte mit gespeicherten ChatGPT-Anmeldedaten von Info-Stealern angegriffen, einer Art bösartiger Software, die darauf ausgelegt ist, sensible Daten zu extrahieren. Von Anmeldeinformationen über Bankdaten bis hin zum Browser-Verlauf - Infodiebe schürfen Daten und leiten sie an ihre Betreiber weiter. 

Die Threat Intelligence-Plattform von Group-IB identifiziert kompromittierte ChatGPT-Logins, die auf Dark-Web-Marktplätzen gehandelt werden.

Die Verstöße erreichten im Mai ihren Höhepunkt, als 26.802 kompromittierte ChatGPT-Konten in Dark-Web-Logs auftauchten. Der Großteil der durchgesickerten Daten entfiel auf den asiatisch-pazifischen Raum. 

Warum wollen die Leute ChatGPT-Logins?

ChatGPT erhält täglich riesige Datenmengen, einschließlich persönlicher und geschäftlicher Informationen.

OpenAI warnt die Nutzer davor, sensible und persönliche Informationen mit der KI zu teilen, aber das ist schwierig, wenn man das Tool beispielsweise für die Erstellung eines Lebenslaufs oder die Analyse interner Unternehmensdaten verwendet. Außerdem speichert die KI standardmäßig Benutzerinteraktionen und Transkripte, einschließlich aller potenziell sensiblen Daten.

Group-IB gibt an, dass cyberkriminelle Gruppen sich zunehmend für das Potenzial von ChatGPT-Logins interessieren, insbesondere wenn der Benutzer anhand anderer persönlicher Informationen identifiziert werden kann. Es ist zum Beispiel durchaus möglich, dass der Geschäftsführer eines Unternehmens sensible Informationen an ChatGPT weitergibt, die für Hackerangriffe, Lösegeldforderungen und andere Straftaten genutzt werden können. 

Dmitry Shestakov, Head of Threat Intelligence bei Group-IB, kommentiert: "Viele Unternehmen integrieren ChatGPT in ihre Arbeitsabläufe. Mitarbeiter geben geheime Korrespondenz ein oder nutzen den Bot zur Optimierung von eigenem Code. Da die Standardkonfiguration von ChatGPT alle Unterhaltungen speichert, könnte dies Bedrohungsakteuren unbeabsichtigt eine Fundgrube an sensiblen Informationen bieten, wenn sie in den Besitz von Zugangsdaten gelangen. Wir bei Group-IB überwachen die Untergrund-Communities kontinuierlich, um solche Konten sofort zu identifizieren."

Angesichts dieser Sicherheitsbedrohungen rät Group-IB den Nutzern, ihre Passwörter ständig zu aktualisieren und die Zwei-Faktor-Authentifizierung zu aktivieren, um ihre ChatGPT-Konten zu schützen. 

Um 2FA zu Ihrem ChatGPT-Konto hinzuzufügen, navigieren Sie zu "Einstellungen", und die Option sollte erscheinen. Zum Zeitpunkt der Erstellung dieses Artikels hat ChatGPT die Einstellung jedoch ohne Erklärung ausgesetzt - vielleicht werden der App weitere Sicherheitsfunktionen hinzugefügt. 

Viele Unternehmen warnen ihre Mitarbeiter davor, sensible Informationen mit ChatGPT und anderen großen Sprachmodellen (LLM) zu teilen, einschließlich Googleder die Mitarbeiter aufforderte, bei der Verwendung von Chatbots, einschließlich ihres eigenen LLM, Bard, vorsichtig zu sein.

Betrüger werden sicher kreative Wege finden, um gehackte ChatGPT-Konten zu nutzen - sichern Sie Ihr Konto mit 2FA, um Ihre Daten zu schützen, und löschen Sie Chat-Protokolle regelmäßig. 

Join The Future


HEUTE ABONNIEREN

Klar, prägnant, umfassend. Behalten Sie den Überblick über KI-Entwicklungen mit DailyAI

Sam Jeans

Sam ist ein Wissenschafts- und Technologiewissenschaftler, der in verschiedenen KI-Startups gearbeitet hat. Wenn er nicht gerade schreibt, liest er medizinische Fachzeitschriften oder kramt in Kisten mit Schallplatten.

×

KOSTENLOSES PDF EXKLUSIV
Mit DailyAI immer einen Schritt voraus

Melden Sie sich für unseren wöchentlichen Newsletter an und erhalten Sie exklusiven Zugang zum neuesten eBook von DailyAI: 'Mastering AI Tools: Ihr Leitfaden für mehr Produktivität im Jahr 2024".

*Mit der Anmeldung zu unserem Newsletter akzeptieren Sie unsere Datenschutzbestimmungen und unsere Bedingungen und Konditionen