Consultoría de ciberseguridad en Singapur Grupo-IB ha detectado una alarmante filtración de inicios de sesión en ChatGPT.
Según Group-IB, más de 101.134 dispositivos con datos de acceso ChatGPT guardados fueron violados por ladrones de información, un tipo de software malicioso diseñado para extraer datos confidenciales. Desde credenciales de inicio de sesión, datos bancarios, historial de navegación y mucho más, los ladrones de información extraen y envían datos a sus operadores.
La plataforma de Inteligencia de Amenazas de Group-IB identifica los inicios de sesión ChatGPT comprometidos que se comercializan en los mercados de la web oscura.
Las filtraciones alcanzaron su punto álgido en mayo, cuando 26.802 cuentas de ChatGPT comprometidas aparecieron en los registros de la dark web. La región Asia-Pacífico concentró la mayor parte de los datos filtrados.
Group-IB ha identificado 101.134 1TP5Ladrón-dispositivos infectados con salva #ChatGPT credenciales. La plataforma de Inteligencia de Amenazas de Group-IB encontró estas credenciales comprometidas en los registros de malware de robo de información comercializados en mercados ilícitos de la web oscura durante el año pasado. pic.twitter.com/fNy6AngoXM
- Inteligencia sobre amenazas de Group-IB (@GroupIB_TI) 20 de junio de 2023
¿Por qué la gente quiere conectarse a ChatGPT?
ChatGPT recibe diariamente volúmenes colosales de datos, incluida información personal y empresarial.
OpenAI advierte a los usuarios de que no compartan información sensible y personal con la IA, pero eso es difícil si se utiliza la herramienta para, por ejemplo, generar un CV o analizar información interna de la empresa. Además, la IA guarda por defecto las interacciones y transcripciones de los usuarios, incluidos los datos potencialmente sensibles.
Group-IB afirma que los grupos de ciberdelincuentes se han interesado cada vez más por el potencial de los inicios de sesión en ChatGPT, especialmente cuando se puede identificar al usuario a partir de otra información personal. Por ejemplo, es perfectamente posible que el director general de una empresa comparta información sensible con ChatGPT que pueda utilizarse para piratear, pedir rescates y cometer otros delitos.
Dmitry Shestakov, Jefe de Inteligencia de Amenazas de Group-IB, comentó: "Muchas empresas están integrando ChatGPT en su flujo operativo. Los empleados introducen correspondencia clasificada o utilizan el bot para optimizar código propietario. Dado que la configuración estándar de ChatGPT retiene todas las conversaciones, esto podría ofrecer inadvertidamente un tesoro de inteligencia sensible a los actores de amenazas si obtienen las credenciales de la cuenta. En Group-IB vigilamos continuamente las comunidades clandestinas para identificar rápidamente este tipo de cuentas."
A la luz de estas amenazas a la seguridad, Group-IB aconseja a los usuarios que actualicen constantemente sus contraseñas y activen la autenticación de dos factores para salvaguardar sus cuentas ChatGPT.
Para añadir 2FA a tu cuenta de ChatGPT, ve a "Configuración" y aparecerá la opción. Sin embargo, en el momento de escribir estas líneas, ChatGPT ha suspendido la configuración sin dar explicaciones -quizás estén añadiendo más funciones de seguridad a la aplicación-.
Muchas empresas están advirtiendo a sus empleados sobre la posibilidad de compartir información sensible con ChatGPT y otros grandes modelos lingüísticos (LLM), incluido Googleque recomendó al personal que tuviera cuidado con el uso de los chatbots, incluido su propio LLM, Bard.
Los estafadores encontrarán formas creativas de utilizar cuentas de ChatGPT pirateadas. Protege las tuyas con 2FA para mantener a salvo tus datos y borra los registros de chat con regularidad.