Singaporees adviesbureau voor cyberbeveiliging Groep-IB heeft een alarmerend lek van ChatGPT logins ontdekt.
Volgens Group-IB, werden meer dan 101.134 apparaten met opgeslagen ChatGPT inloggegevens gekraakt door info stealers, een soort kwaadaardige software ontworpen om gevoelige gegevens te ontfutselen. Van inloggegevens, bankgegevens, browsegeschiedenis en meer, informatiedieven verzamelen gegevens en sturen deze door naar hun operators.
Het Threat Intelligence-platform van Group-IB identificeert gecompromitteerde ChatGPT-logins die worden verhandeld op dark web-marktplaatsen.
De inbraken bereikten een hoogtepunt in mei toen 26.802 gecompromitteerde ChatGPT-accounts opdoken in dark web logs. De regio Azië-Pacific was verantwoordelijk voor het merendeel van de gelekte gegevens.
Group-IB heeft 101.134 #stealer-besmette apparaten met opgeslagen #ChatGPT referenties. Het Threat Intelligence-platform van Group-IB vond deze gecompromitteerde referenties in de logs van malware voor het stelen van informatie die het afgelopen jaar werd verhandeld op illegale marktplaatsen op het dark web. pic.twitter.com/fNy6AngoXM
- Group-IB Dreigingsinformatie (@GroupIB_TI) 20 juni 2023
Waarom willen mensen ChatGPT-logins?
ChatGPT ontvangt dagelijks enorme hoeveelheden gegevens, waaronder persoonlijke en zakelijke informatie.
OpenAI waarschuwt gebruikers om geen gevoelige en persoonlijke informatie te delen met de AI, maar dat is lastig als je de tool gebruikt om bijvoorbeeld een CV te genereren of interne bedrijfsinformatie te analyseren. Bovendien slaat de AI standaard gebruikersinteracties en transcripties op, inclusief alle potentieel gevoelige gegevens.
Group-IB stelt dat cybercriminele groepen meer geïnteresseerd zijn geraakt in het potentieel van ChatGPT logins, vooral wanneer de gebruiker kan worden geïdentificeerd aan de hand van andere persoonlijke informatie. Het is bijvoorbeeld heel goed mogelijk dat een CEO van een bedrijf gevoelige informatie deelt met ChatGPT die gebruikt kan worden voor hacken, losgeld en andere misdrijven.
Dmitry Shestakov, Head of Threat Intelligence bij Group-IB: "Veel bedrijven integreren ChatGPT in hun operationele stroom. Medewerkers voeren geheime correspondentie in of gebruiken de bot om eigen code te optimaliseren. Aangezien de standaardconfiguratie van ChatGPT alle conversaties bewaart, zou dit onbedoeld een schat aan gevoelige informatie kunnen bieden aan bedreigingsactoren als ze de accountgegevens bemachtigen. Bij Group-IB houden we ondergrondse gemeenschappen voortdurend in de gaten om dergelijke accounts onmiddellijk te identificeren."
In het licht van deze veiligheidsrisico's adviseert Group-IB gebruikers om hun wachtwoorden consequent bij te werken en twee-factor authenticatie te activeren om hun ChatGPT-accounts te beveiligen.
Om 2FA toe te voegen aan je ChatGPT account, ga je naar "Instellingen" en de optie zou moeten verschijnen. Op het moment van schrijven heeft ChatGPT de instelling echter opgeschort zonder uitleg - misschien zijn ze meer beveiligingsfuncties aan het toevoegen aan de app.
Veel bedrijven waarschuwen werknemers over het delen van gevoelige informatie met ChatGPT en andere grote taalmodellen (LLM's), inclusief Googledie medewerkers vertelde voorzichtig te zijn met het gebruik van chatbots, waaronder hun eigen LLM, Bard.
Fraudeurs vinden vast creatieve manieren om gehackte ChatGPT-accounts te gebruiken - beveilig de jouwe met 2FA om je gegevens veilig te houden en wis chatlogs regelmatig.