ChatGPT-inloggningar läcker ut på forum och marknadsplatser på den mörka webben

23 juni 2023

OpenAI-inloggningsläcka

Konsultföretag inom cybersäkerhet i Singapore Grupp-IB har upptäckt en alarmerande läcka av ChatGPT-inloggningar.

Enligt uppgift från Group-IB har mer än 101 134 enheter med sparade inloggningsuppgifter för ChatGPT utsatts för intrång av så kallade info stealers, en typ av skadlig programvara som är utformad för att extrahera känslig data. Från inloggningsuppgifter, bankdata, webbhistorik och mycket mer samlar dataintrång in och vidarebefordrar data till sina operatörer. 

Group-IB:s Threat Intelligence-plattform identifierar komprometterade ChatGPT-inloggningar som handlas på marknadsplatser på den mörka webben.

Intrången nådde sin topp i maj när 26 802 komprometterade ChatGPT-konton dök upp i dark web-loggar. Asien och Stillahavsområdet stod för majoriteten av de läckta uppgifterna. 

Varför vill folk ha ChatGPT-inloggningar?

ChatGPT tar emot enorma mängder data varje dag, inklusive personlig information och affärsinformation.

OpenAI varnar användarna för att dela känslig och personlig information med AI:n, men det är svårt om du använder verktyget för att till exempel skapa ett CV eller analysera intern företagsinformation. Dessutom sparar AI:n som standard användarinteraktioner och transkriptioner, inklusive potentiellt känsliga uppgifter.

Group-IB uppger att cyberkriminella grupper har blivit mer intresserade av potentialen i ChatGPT-inloggningar, särskilt när användaren kan identifieras från annan personlig information. Det är till exempel fullt möjligt att en företagsledare delar med sig av känslig information till ChatGPT som kan användas för hackning, lösensummor och andra brott. 

Dmitry Shestakov, chef för Threat Intelligence på Group-IB, kommenterade: "Många företag integrerar ChatGPT i sitt operativa flöde. Anställda skriver sekretessbelagda korrespondenser eller använder botten för att optimera proprietär kod. Med tanke på att ChatGPT:s standardkonfiguration behåller alla konversationer kan detta oavsiktligt erbjuda en mängd känslig information till hotaktörer om de får tillgång till kontouppgifter. På Group-IB övervakar vi kontinuerligt underjordiska communities för att omedelbart identifiera sådana konton."

Mot bakgrund av dessa säkerhetshot rekommenderar Group-IB användarna att konsekvent uppdatera sina lösenord och aktivera tvåfaktorsautentisering för att skydda sina ChatGPT-konton. 

För att lägga till 2FA till ditt ChatGPT-konto, navigera till "Inställningar", och alternativet ska visas. I skrivande stund har ChatGPT dock avbrutit inställningen utan förklaring - kanske lägger de till fler säkerhetsfunktioner i appen. 

Många företag varnar sina anställda för att dela känslig information med ChatGPT och andra stora språkmodeller (LLM), inklusive Google, som uppmanade personalen att vara försiktig med hur de använder chatbots, inklusive deras egen LLM, Bard.

Bedragare kommer säkert att hitta kreativa sätt att använda hackade ChatGPT-konton - säkra ditt konto med 2FA för att hålla dina uppgifter säkra och rensa chattloggar regelbundet. 

Bli en del av framtiden


PRENUMERERA IDAG

Tydlig, kortfattad och heltäckande. Få grepp om AI-utvecklingen med DagligaAI

Sam Jeans

Sam är en vetenskaps- och teknikskribent som har arbetat i olika AI-startups. När han inte skriver läser han medicinska tidskrifter eller gräver igenom lådor med vinylskivor.

×

GRATIS PDF EXKLUSIV
Ligg steget före med DailyAI

Registrera dig för vårt veckovisa nyhetsbrev och få exklusiv tillgång till DailyAI:s senaste e-bok: "Mastering AI Tools: Din 2024-guide till förbättrad produktivitet".

*Genom att prenumerera på vårt nyhetsbrev accepterar du vår Integritetspolicy och våra Villkor och anvisningar