Fuga de logins ChatGPT em fóruns e mercados da dark web

23 de junho de 2023

Fuga de login da OpenAI

Empresa de consultoria em cibersegurança de Singapura Grupo-IB detectou uma fuga alarmante de logins ChatGPT.

De acordo com Segundo o Group-IB, mais de 101 134 dispositivos com dados de início de sessão do ChatGPT guardados foram violados por ladrões de informação, um tipo de software malicioso concebido para extrair dados sensíveis. Desde credenciais de início de sessão, dados bancários, histórico de navegação e muito mais, os ladrões de informação extraem e reencaminham dados para os seus operadores. 

A plataforma de Threat Intelligence do Group-IB identifica os logins ChatGPT comprometidos e comercializados nos mercados da dark web.

As violações atingiram o seu pico em maio, quando 26 802 contas ChatGPT comprometidas apareceram nos registos da dark web. A região Ásia-Pacífico foi responsável pela maioria dos dados divulgados. 

Porque é que as pessoas querem logins ChatGPT?

O ChatGPT recebe diariamente volumes colossais de dados, incluindo informações pessoais e comerciais.

A OpenAI avisa os utilizadores para não partilharem informações sensíveis e pessoais com a IA, mas isso é difícil se estiver a utilizar a ferramenta para, por exemplo, gerar um CV ou analisar informações internas da empresa. Além disso, a IA guarda as interacções e transcrições dos utilizadores por defeito, incluindo quaisquer dados potencialmente sensíveis.

O Group-IB afirma que os grupos de cibercriminosos estão cada vez mais interessados no potencial dos logins do ChatGPT, especialmente quando o utilizador pode ser identificado a partir de outras informações pessoais. Por exemplo, é perfeitamente possível que o CEO de uma empresa partilhe informações sensíveis com o ChatGPT, que podem ser utilizadas para pirataria informática, resgates e outros crimes. 

Dmitry Shestakov, Diretor de Threat Intelligence do Group-IB, comentou: "Muitas empresas estão a integrar o ChatGPT no seu fluxo operacional. Os funcionários introduzem correspondência confidencial ou utilizam o bot para otimizar o código proprietário. Dado que a configuração padrão do ChatGPT retém todas as conversas, isso pode inadvertidamente oferecer um tesouro de informações confidenciais a agentes de ameaças se eles obtiverem credenciais de conta. No Grupo-IB, estamos a monitorizar continuamente as comunidades clandestinas para identificar prontamente essas contas".

Tendo em conta estas ameaças à segurança, o Group-IB aconselha os utilizadores a actualizarem constantemente as suas palavras-passe e a activarem a autenticação de dois factores para protegerem as suas contas ChatGPT. 

Para adicionar 2FA à sua conta ChatGPT, navegue até "Definições" e a opção deve aparecer. No entanto, no momento em que escrevo, o ChatGPT suspendeu a configuração sem explicação - talvez estejam a adicionar mais funcionalidades de segurança à aplicação. 

Muitas empresas estão a avisar os funcionários sobre a partilha de informações sensíveis com o ChatGPT e outros modelos de linguagem de grande dimensão (LLM), incluindo o Googleque aconselha os funcionários a terem cuidado com a forma como utilizam os chatbots, incluindo o seu próprio LLM, Bard.

Os autores de fraudes encontrarão formas criativas de utilizar contas ChatGPT pirateadas - proteja a sua com 2FA para manter os seus dados seguros e limpe regularmente os registos de conversação. 

Junte-se ao futuro


SUBSCREVER HOJE

Claro, conciso e abrangente. Fique a par dos desenvolvimentos da IA com DailyAI

Calças de ganga Sam

Sam é um escritor de ciência e tecnologia que trabalhou em várias startups de IA. Quando não está a escrever, pode ser encontrado a ler revistas médicas ou a vasculhar caixas de discos de vinil.

×

PDF GRATUITO EXCLUSIVO
Fique à frente com o DailyAI

Subscreva a nossa newsletter semanal e receba acesso exclusivo ao último livro eletrónico do DailyAI: 'Mastering AI Tools: Seu guia 2024 para aumentar a produtividade'.

*Ao subscrever a nossa newsletter, aceita a nossa Política de privacidade e o nosso Termos e condições