ChatGPT-pålogginger lekker på mørke nettfora og markedsplasser

23. juni 2023

OpenAI-innloggingslekkasje

Konsulentselskap innen cybersikkerhet i Singapore Gruppe-IB har oppdaget en alarmerende lekkasje av ChatGPT-pålogginger.

Ifølge Group-IB, ble mer enn 101 134 enheter med lagret ChatGPT-påloggingsinformasjon brutt inn av informasjonstyver, en type ondsinnet programvare som er designet for å hente ut sensitive data. Fra påloggingsinformasjon, bankdata, nettleserhistorikk og mer, informasjonstyver utvinner og videresender data til operatørene sine. 

Group-IBs Threat Intelligence-plattform identifiserer kompromitterte ChatGPT-pålogginger som omsettes på markedsplasser på det mørke nettet.

Innbruddene nådde en topp i mai, da 26 802 kompromitterte ChatGPT-kontoer dukket opp i logger på det mørke nettet. Asia-Stillehavsregionen sto for størstedelen av de lekkede dataene. 

Hvorfor vil folk ha ChatGPT-pålogging?

ChatGPT mottar daglig enorme mengder data, inkludert person- og forretningsinformasjon.

OpenAI advarer brukerne mot å dele sensitiv og personlig informasjon med den kunstige intelligensen, men det er vanskelig hvis du for eksempel bruker verktøyet til å generere en CV eller analysere intern bedriftsinformasjon. AI-en lagrer dessuten brukerinteraksjoner og transkripsjoner som standard, inkludert potensielt sensitive data.

Group-IB opplyser at nettkriminelle grupper har blitt mer interessert i potensialet som ligger i ChatGPT-pålogginger, spesielt når brukeren kan identifiseres ut fra annen personlig informasjon. Det er for eksempel fullt mulig at en bedriftsdirektør deler sensitiv informasjon til ChatGPT som kan brukes til hacking, løsepenger og annen kriminalitet. 

Dmitry Shestakov, leder for Threat Intelligence hos Group-IB, kommenterer: "Mange bedrifter integrerer ChatGPT i sin driftsflyt. Ansatte skriver inn hemmeligstemplet korrespondanse eller bruker boten til å optimalisere proprietær kode. Gitt at ChatGPTs standardkonfigurasjon beholder alle samtaler, kan dette utilsiktet gi en mengde sensitiv informasjon til trusselaktører hvis de får tak i kontoopplysninger. Hos Group-IB overvåker vi kontinuerlig undergrunnsmiljøer for å identifisere slike kontoer."

I lys av disse sikkerhetstruslene råder Group-IB brukerne til å oppdatere passordene sine jevnlig og aktivere tofaktorautentisering for å beskytte ChatGPT-kontoene sine. 

For å legge til 2FA på ChatGPT-kontoen din, naviger til "Innstillinger", og alternativet skal vises. I skrivende stund har ChatGPT imidlertid suspendert innstillingen uten forklaring - kanskje de legger til flere sikkerhetsfunksjoner i appen. 

Mange bedrifter advarer ansatte mot å dele sensitiv informasjon med ChatGPT og andre store språkmodeller (LLM-er), inkludert Google, som ba de ansatte om å være forsiktige med hvordan de bruker chatbots, inkludert deres egen LLM, Bard.

Svindlere vil garantert finne kreative måter å bruke hackede ChatGPT-kontoer på - sikre dine med 2FA for å holde dataene dine trygge, og tøm chat-loggene regelmessig. 

Bli med i fremtiden


ABONNER I DAG

Tydelig, kortfattet og omfattende. Få et grep om AI-utviklingen med DagligAI

Sam Jeans

Sam er en vitenskaps- og teknologiskribent som har jobbet i ulike oppstartsbedrifter innen kunstig intelligens. Når han ikke skriver, leser han medisinske tidsskrifter eller graver seg gjennom esker med vinylplater.

×

GRATIS PDF EKSKLUSIV
Hold deg i forkant med DailyAI

Meld deg på vårt ukentlige nyhetsbrev og få eksklusiv tilgang til DailyAIs nyeste e-bok: "Mastering AI Tools: Din 2024-guide til økt produktivitet".

*Ved å abonnere på vårt nyhetsbrev aksepterer du vår Retningslinjer for personvern og vår Vilkår og betingelser