Сингапурская консалтинговая компания по кибербезопасности Group-IB обнаружила тревожную утечку логинов ChatGPT.
Согласно По данным Group-IB, более 101 134 устройств с сохраненными данными для входа в ChatGPT были взломаны похитителями информации - вредоносными программами, предназначенными для извлечения конфиденциальных данных. Похитители информации добывают и передают своим операторам данные - учетные данные для входа в систему, банковские данные, историю просмотров и многое другое.
Платформа анализа угроз Group-IB выявляет взломанные логины ChatGPT, которые продаются на "темных" интернет-площадках.
Пик утечек пришелся на май, когда в темных веб-журналах появилось 26 802 взломанных аккаунта ChatGPT. Большая часть утечек данных пришлась на Азиатско-Тихоокеанский регион.
Group-IB определила 101 134 #stealer-инфицированные устройства с сохраненными #ChatGPT учетные данные. Платформа анализа угроз Group-IB обнаружила эти скомпрометированные учетные данные в журналах вредоносных программ для похищения информации, которые продавались на нелегальных рынках темной паутины в течение последнего года. pic.twitter.com/fNy6AngoXM
- Group-IB Threat Intelligence (@GroupIB_TI) 20 июня 2023 года
Зачем людям нужны логины ChatGPT?
ChatGPT ежедневно получает колоссальные объемы данных, включая личную и деловую информацию.
OpenAI предупреждает пользователей не передавать ИИ конфиденциальную и личную информацию, но это сложно, если вы используете инструмент, скажем, для составления резюме или анализа внутренней информации компании. Кроме того, ИИ по умолчанию сохраняет записи взаимодействия с пользователем, включая все потенциально конфиденциальные данные.
Group-IB утверждает, что киберпреступные группы все больше интересуются возможностями логинов ChatGPT, особенно когда пользователя можно идентифицировать по другой личной информации. Например, вполне возможно, что глава компании поделится с ChatGPT конфиденциальной информацией, которая может быть использована для взлома, выкупа и других преступлений.
Дмитрий Шестаков, руководитель отдела аналитики угроз Group-IB, прокомментировал: "Многие предприятия интегрируют ChatGPT в свой рабочий процесс. Сотрудники ведут секретную переписку или используют бота для оптимизации проприетарного кода. Учитывая, что стандартная конфигурация ChatGPT сохраняет все разговоры, это может привести к тому, что при получении учетных данных злоумышленники могут случайно получить конфиденциальную информацию. В Group-IB мы постоянно отслеживаем подпольные сообщества, чтобы оперативно выявлять такие аккаунты".
В связи с этими угрозами безопасности Group-IB советует пользователям постоянно обновлять пароли и активировать двухфакторную аутентификацию для защиты своих аккаунтов в ChatGPT.
Чтобы добавить 2FA в свой аккаунт ChatGPT, перейдите в раздел "Настройки", где появится соответствующая опция. Однако на момент написания статьи ChatGPT приостановил настройку без объяснения причин - возможно, они добавляют в приложение дополнительные функции безопасности.
Многие компании предупреждают сотрудников о необходимости делиться конфиденциальной информацией с ChatGPT и другими большими языковыми моделями (БЯМ), включая GoogleБард, который посоветовал сотрудникам быть осторожными в использовании чат-ботов, включая своего собственного LLM.
Мошенники обязательно найдут креативные способы использовать взломанные аккаунты ChatGPT - защитите свои аккаунты с помощью 2FA, чтобы сохранить свои данные в безопасности, и регулярно очищайте журналы чата.