Konsulentselskap innen cybersikkerhet i Singapore Gruppe-IB har oppdaget en alarmerende lekkasje av ChatGPT-pålogginger.
Ifølge Group-IB, ble mer enn 101 134 enheter med lagret ChatGPT-påloggingsinformasjon brutt inn av informasjonstyver, en type ondsinnet programvare som er designet for å hente ut sensitive data. Fra påloggingsinformasjon, bankdata, nettleserhistorikk og mer, informasjonstyver utvinner og videresender data til operatørene sine.
Group-IBs Threat Intelligence-plattform identifiserer kompromitterte ChatGPT-pålogginger som omsettes på markedsplasser på det mørke nettet.
Innbruddene nådde en topp i mai, da 26 802 kompromitterte ChatGPT-kontoer dukket opp i logger på det mørke nettet. Asia-Stillehavsregionen sto for størstedelen av de lekkede dataene.
Group-IB har identifisert 101 134 #stealer-infiserte enheter med lagret #ChatGPT legitimasjon. Group-IBs Threat Intelligence-plattform fant disse kompromitterte legitimasjonene i loggene til skadevare som stjeler informasjon, og som har blitt omsatt på ulovlige markedsplasser på det mørke nettet det siste året. pic.twitter.com/fNy6AngoXM
- Group-IB Threat Intelligence (@GroupIB_TI) 20. juni 2023
Hvorfor vil folk ha ChatGPT-pålogging?
ChatGPT mottar daglig enorme mengder data, inkludert person- og forretningsinformasjon.
OpenAI advarer brukerne mot å dele sensitiv og personlig informasjon med den kunstige intelligensen, men det er vanskelig hvis du for eksempel bruker verktøyet til å generere en CV eller analysere intern bedriftsinformasjon. AI-en lagrer dessuten brukerinteraksjoner og transkripsjoner som standard, inkludert potensielt sensitive data.
Group-IB opplyser at nettkriminelle grupper har blitt mer interessert i potensialet som ligger i ChatGPT-pålogginger, spesielt når brukeren kan identifiseres ut fra annen personlig informasjon. Det er for eksempel fullt mulig at en bedriftsdirektør deler sensitiv informasjon til ChatGPT som kan brukes til hacking, løsepenger og annen kriminalitet.
Dmitry Shestakov, leder for Threat Intelligence hos Group-IB, kommenterer: "Mange bedrifter integrerer ChatGPT i sin driftsflyt. Ansatte skriver inn hemmeligstemplet korrespondanse eller bruker boten til å optimalisere proprietær kode. Gitt at ChatGPTs standardkonfigurasjon beholder alle samtaler, kan dette utilsiktet gi en mengde sensitiv informasjon til trusselaktører hvis de får tak i kontoopplysninger. Hos Group-IB overvåker vi kontinuerlig undergrunnsmiljøer for å identifisere slike kontoer."
I lys av disse sikkerhetstruslene råder Group-IB brukerne til å oppdatere passordene sine jevnlig og aktivere tofaktorautentisering for å beskytte ChatGPT-kontoene sine.
For å legge til 2FA på ChatGPT-kontoen din, naviger til "Innstillinger", og alternativet skal vises. I skrivende stund har ChatGPT imidlertid suspendert innstillingen uten forklaring - kanskje de legger til flere sikkerhetsfunksjoner i appen.
Mange bedrifter advarer ansatte mot å dele sensitiv informasjon med ChatGPT og andre store språkmodeller (LLM-er), inkludert Google, som ba de ansatte om å være forsiktige med hvordan de bruker chatbots, inkludert deres egen LLM, Bard.
Svindlere vil garantert finne kreative måter å bruke hackede ChatGPT-kontoer på - sikre dine med 2FA for å holde dataene dine trygge, og tøm chat-loggene regelmessig.