ChatGPT-logins lekken op dark web fora en marktplaatsen

23 juni 2023

OpenAI login lek

Singaporees adviesbureau voor cyberbeveiliging Groep-IB heeft een alarmerend lek van ChatGPT logins ontdekt.

Volgens Group-IB, werden meer dan 101.134 apparaten met opgeslagen ChatGPT inloggegevens gekraakt door info stealers, een soort kwaadaardige software ontworpen om gevoelige gegevens te ontfutselen. Van inloggegevens, bankgegevens, browsegeschiedenis en meer, informatiedieven verzamelen gegevens en sturen deze door naar hun operators. 

Het Threat Intelligence-platform van Group-IB identificeert gecompromitteerde ChatGPT-logins die worden verhandeld op dark web-marktplaatsen.

De inbraken bereikten een hoogtepunt in mei toen 26.802 gecompromitteerde ChatGPT-accounts opdoken in dark web logs. De regio Azië-Pacific was verantwoordelijk voor het merendeel van de gelekte gegevens. 

Waarom willen mensen ChatGPT-logins?

ChatGPT ontvangt dagelijks enorme hoeveelheden gegevens, waaronder persoonlijke en zakelijke informatie.

OpenAI waarschuwt gebruikers om geen gevoelige en persoonlijke informatie te delen met de AI, maar dat is lastig als je de tool gebruikt om bijvoorbeeld een CV te genereren of interne bedrijfsinformatie te analyseren. Bovendien slaat de AI standaard gebruikersinteracties en transcripties op, inclusief alle potentieel gevoelige gegevens.

Group-IB stelt dat cybercriminele groepen meer geïnteresseerd zijn geraakt in het potentieel van ChatGPT logins, vooral wanneer de gebruiker kan worden geïdentificeerd aan de hand van andere persoonlijke informatie. Het is bijvoorbeeld heel goed mogelijk dat een CEO van een bedrijf gevoelige informatie deelt met ChatGPT die gebruikt kan worden voor hacken, losgeld en andere misdrijven. 

Dmitry Shestakov, Head of Threat Intelligence bij Group-IB: "Veel bedrijven integreren ChatGPT in hun operationele stroom. Medewerkers voeren geheime correspondentie in of gebruiken de bot om eigen code te optimaliseren. Aangezien de standaardconfiguratie van ChatGPT alle conversaties bewaart, zou dit onbedoeld een schat aan gevoelige informatie kunnen bieden aan bedreigingsactoren als ze de accountgegevens bemachtigen. Bij Group-IB houden we ondergrondse gemeenschappen voortdurend in de gaten om dergelijke accounts onmiddellijk te identificeren."

In het licht van deze veiligheidsrisico's adviseert Group-IB gebruikers om hun wachtwoorden consequent bij te werken en twee-factor authenticatie te activeren om hun ChatGPT-accounts te beveiligen. 

Om 2FA toe te voegen aan je ChatGPT account, ga je naar "Instellingen" en de optie zou moeten verschijnen. Op het moment van schrijven heeft ChatGPT de instelling echter opgeschort zonder uitleg - misschien zijn ze meer beveiligingsfuncties aan het toevoegen aan de app. 

Veel bedrijven waarschuwen werknemers over het delen van gevoelige informatie met ChatGPT en andere grote taalmodellen (LLM's), inclusief Googledie medewerkers vertelde voorzichtig te zijn met het gebruik van chatbots, waaronder hun eigen LLM, Bard.

Fraudeurs vinden vast creatieve manieren om gehackte ChatGPT-accounts te gebruiken - beveilig de jouwe met 2FA om je gegevens veilig te houden en wis chatlogs regelmatig. 

Doe mee met de toekomst


SCHRIJF JE VANDAAG NOG IN

Duidelijk, beknopt, uitgebreid. Krijg grip op AI-ontwikkelingen met DailyAI

Sam Jeans

Sam is een wetenschap- en technologieschrijver die bij verschillende AI-startups heeft gewerkt. Als hij niet aan het schrijven is, leest hij medische tijdschriften of graaft hij door dozen met vinylplaten.

×

GRATIS PDF EXCLUSIEF
Blijf voorop met DailyAI

Meld je aan voor onze wekelijkse nieuwsbrief en ontvang exclusieve toegang tot DailyAI's nieuwste eBook: 'Mastering AI Tools: Your 2024 Guide to Enhanced Productivity'.

* Door u aan te melden voor onze nieuwsbrief accepteert u onze Privacybeleid en onze Algemene voorwaarden