Société de conseil en cybersécurité de Singapour Groupe-IB a détecté une fuite alarmante de logins ChatGPT.
Selon le Group-IB, plus de 101 134 appareils contenant des données de connexion ChatGPT ont été violés par des voleurs d'informations, un type de logiciel malveillant conçu pour extraire des données sensibles. Qu'il s'agisse d'identifiants de connexion, de données bancaires, d'historique de navigation ou autres, les voleurs d'informations exploitent les données et les transmettent à leurs opérateurs.
La plateforme de renseignement sur les menaces du Group-IB identifie les identifiants ChatGPT compromis échangés sur les places de marché du dark web.
Les violations ont atteint leur apogée en mai, lorsque 26 802 comptes ChatGPT compromis sont apparus dans les journaux du dark web. La région Asie-Pacifique est à l'origine de la majorité des fuites de données.
Le Group-IB a identifié 101 134 #stealer-les appareils infectés avec des #ChatGPT des informations d'identification. La plateforme de renseignement sur les menaces du Group-IB a trouvé ces identifiants compromis dans les journaux des logiciels malveillants de vol d'informations échangés sur les marchés illicites du dark web au cours de l'année écoulée. pic.twitter.com/fNy6AngoXM
- Group-IB Threat Intelligence (@GroupIB_TI) 20 juin 2023
Pourquoi les gens veulent-ils des logins ChatGPT ?
ChatGPT reçoit quotidiennement des volumes colossaux de données, y compris des informations personnelles et professionnelles.
OpenAI avertit les utilisateurs de ne pas partager d'informations sensibles et personnelles avec l'IA, mais cela s'avère difficile si vous utilisez l'outil pour, par exemple, générer un CV ou analyser des informations internes à l'entreprise. De plus, l'IA enregistre par défaut les interactions et les transcriptions des utilisateurs, y compris les données potentiellement sensibles.
Le Group-IB indique que les groupes cybercriminels s'intéressent de plus en plus au potentiel des connexions ChatGPT, en particulier lorsque l'utilisateur peut être identifié à partir d'autres informations personnelles. Par exemple, il est tout à fait possible que le PDG d'une entreprise communique à ChatGPT des informations sensibles qui peuvent être utilisées pour le piratage, les rançons et d'autres délits.
Dmitry Shestakov, Head of Threat Intelligence chez Group-IB, a déclaré : "De nombreuses entreprises intègrent ChatGPT dans leur flux opérationnel. Les employés saisissent des correspondances classifiées ou utilisent le robot pour optimiser le code propriétaire. Étant donné que la configuration standard de ChatGPT conserve toutes les conversations, cela pourrait involontairement offrir un trésor de renseignements sensibles aux acteurs de la menace s'ils obtiennent les informations d'identification du compte. Au Group-IB, nous surveillons en permanence les communautés clandestines afin d'identifier rapidement de tels comptes".
À la lumière de ces menaces de sécurité, le Group-IB conseille aux utilisateurs de mettre à jour régulièrement leurs mots de passe et d'activer l'authentification à deux facteurs pour protéger leurs comptes ChatGPT.
Pour ajouter 2FA à votre compte ChatGPT, naviguez vers "Paramètres", et l'option devrait apparaître. Cependant, à l'heure où nous écrivons ces lignes, ChatGPT a suspendu le paramètre sans donner d'explication - peut-être sont-ils en train d'ajouter des fonctions de sécurité à l'application.
De nombreuses entreprises mettent en garde leurs employés contre le partage d'informations sensibles avec ChatGPT et d'autres grands modèles de langage (LLM), y compris GoogleLa Commission européenne, qui a demandé à son personnel de faire preuve de prudence dans l'utilisation des chatbots, y compris de son propre LLM, Bard.
Les fraudeurs ne manqueront pas de trouver des moyens créatifs d'utiliser des comptes ChatGPT piratés - sécurisez le vôtre avec 2FA pour garder vos données en sécurité et effacez régulièrement les journaux de chat.