Singapurisches Beratungsunternehmen für Cybersicherheit Gruppe-IB hat ein alarmierendes Leck bei ChatGPT-Anmeldungen entdeckt.
Nach Angaben von Group-IB wurden mehr als 101.134 Geräte mit gespeicherten ChatGPT-Anmeldedaten von Info-Stealern angegriffen, einer Art bösartiger Software, die darauf ausgelegt ist, sensible Daten zu extrahieren. Von Anmeldeinformationen über Bankdaten bis hin zum Browser-Verlauf - Infodiebe schürfen Daten und leiten sie an ihre Betreiber weiter.
Die Threat Intelligence-Plattform von Group-IB identifiziert kompromittierte ChatGPT-Logins, die auf Dark-Web-Marktplätzen gehandelt werden.
Die Verstöße erreichten im Mai ihren Höhepunkt, als 26.802 kompromittierte ChatGPT-Konten in Dark-Web-Logs auftauchten. Der Großteil der durchgesickerten Daten entfiel auf den asiatisch-pazifischen Raum.
Group-IB hat 101.134 1TP5Dieb-infizierte Geräte mit gespeicherten #ChatGPT Berechtigungsnachweise. Die Threat-Intelligence-Plattform von Group-IB fand diese kompromittierten Anmeldedaten in den Protokollen von Malware, die im vergangenen Jahr auf illegalen Dark-Web-Marktplätzen gehandelt wurde und Informationen stahl. pic.twitter.com/fNy6AngoXM
- Group-IB Threat Intelligence (@GroupIB_TI) Juni 20, 2023
Warum wollen die Leute ChatGPT-Logins?
ChatGPT erhält täglich riesige Datenmengen, einschließlich persönlicher und geschäftlicher Informationen.
OpenAI warnt die Nutzer davor, sensible und persönliche Informationen mit der KI zu teilen, aber das ist schwierig, wenn man das Tool beispielsweise für die Erstellung eines Lebenslaufs oder die Analyse interner Unternehmensdaten verwendet. Außerdem speichert die KI standardmäßig Benutzerinteraktionen und Transkripte, einschließlich aller potenziell sensiblen Daten.
Group-IB gibt an, dass cyberkriminelle Gruppen sich zunehmend für das Potenzial von ChatGPT-Logins interessieren, insbesondere wenn der Benutzer anhand anderer persönlicher Informationen identifiziert werden kann. Es ist zum Beispiel durchaus möglich, dass der Geschäftsführer eines Unternehmens sensible Informationen an ChatGPT weitergibt, die für Hackerangriffe, Lösegeldforderungen und andere Straftaten genutzt werden können.
Dmitry Shestakov, Head of Threat Intelligence bei Group-IB, kommentiert: "Viele Unternehmen integrieren ChatGPT in ihre Arbeitsabläufe. Mitarbeiter geben geheime Korrespondenz ein oder nutzen den Bot zur Optimierung von eigenem Code. Da die Standardkonfiguration von ChatGPT alle Unterhaltungen speichert, könnte dies Bedrohungsakteuren unbeabsichtigt eine Fundgrube an sensiblen Informationen bieten, wenn sie in den Besitz von Zugangsdaten gelangen. Wir bei Group-IB überwachen die Untergrund-Communities kontinuierlich, um solche Konten sofort zu identifizieren."
Angesichts dieser Sicherheitsbedrohungen rät Group-IB den Nutzern, ihre Passwörter ständig zu aktualisieren und die Zwei-Faktor-Authentifizierung zu aktivieren, um ihre ChatGPT-Konten zu schützen.
Um 2FA zu Ihrem ChatGPT-Konto hinzuzufügen, navigieren Sie zu "Einstellungen", und die Option sollte erscheinen. Zum Zeitpunkt der Erstellung dieses Artikels hat ChatGPT die Einstellung jedoch ohne Erklärung ausgesetzt - vielleicht werden der App weitere Sicherheitsfunktionen hinzugefügt.
Viele Unternehmen warnen ihre Mitarbeiter davor, sensible Informationen mit ChatGPT und anderen großen Sprachmodellen (LLM) zu teilen, einschließlich Googleder die Mitarbeiter aufforderte, bei der Verwendung von Chatbots, einschließlich ihres eigenen LLM, Bard, vorsichtig zu sein.
Betrüger werden sicher kreative Wege finden, um gehackte ChatGPT-Konten zu nutzen - sichern Sie Ihr Konto mit 2FA, um Ihre Daten zu schützen, und löschen Sie Chat-Protokolle regelmäßig.