Se filtran los nombres de usuario de ChatGPT en foros y mercados de la red oscura

23 de junio de 2023

Fuga de datos de acceso a OpenAI

Consultoría de ciberseguridad en Singapur Grupo-IB ha detectado una alarmante filtración de inicios de sesión en ChatGPT.

Según Group-IB, más de 101.134 dispositivos con datos de acceso ChatGPT guardados fueron violados por ladrones de información, un tipo de software malicioso diseñado para extraer datos confidenciales. Desde credenciales de inicio de sesión, datos bancarios, historial de navegación y mucho más, los ladrones de información extraen y envían datos a sus operadores. 

La plataforma de Inteligencia de Amenazas de Group-IB identifica los inicios de sesión ChatGPT comprometidos que se comercializan en los mercados de la web oscura.

Las filtraciones alcanzaron su punto álgido en mayo, cuando 26.802 cuentas de ChatGPT comprometidas aparecieron en los registros de la dark web. La región Asia-Pacífico concentró la mayor parte de los datos filtrados. 

¿Por qué la gente quiere conectarse a ChatGPT?

ChatGPT recibe diariamente volúmenes colosales de datos, incluida información personal y empresarial.

OpenAI advierte a los usuarios de que no compartan información sensible y personal con la IA, pero eso es difícil si se utiliza la herramienta para, por ejemplo, generar un CV o analizar información interna de la empresa. Además, la IA guarda por defecto las interacciones y transcripciones de los usuarios, incluidos los datos potencialmente sensibles.

Group-IB afirma que los grupos de ciberdelincuentes se han interesado cada vez más por el potencial de los inicios de sesión en ChatGPT, especialmente cuando se puede identificar al usuario a partir de otra información personal. Por ejemplo, es perfectamente posible que el director general de una empresa comparta información sensible con ChatGPT que pueda utilizarse para piratear, pedir rescates y cometer otros delitos. 

Dmitry Shestakov, Jefe de Inteligencia de Amenazas de Group-IB, comentó: "Muchas empresas están integrando ChatGPT en su flujo operativo. Los empleados introducen correspondencia clasificada o utilizan el bot para optimizar código propietario. Dado que la configuración estándar de ChatGPT retiene todas las conversaciones, esto podría ofrecer inadvertidamente un tesoro de inteligencia sensible a los actores de amenazas si obtienen las credenciales de la cuenta. En Group-IB vigilamos continuamente las comunidades clandestinas para identificar rápidamente este tipo de cuentas."

A la luz de estas amenazas a la seguridad, Group-IB aconseja a los usuarios que actualicen constantemente sus contraseñas y activen la autenticación de dos factores para salvaguardar sus cuentas ChatGPT. 

Para añadir 2FA a tu cuenta de ChatGPT, ve a "Configuración" y aparecerá la opción. Sin embargo, en el momento de escribir estas líneas, ChatGPT ha suspendido la configuración sin dar explicaciones -quizás estén añadiendo más funciones de seguridad a la aplicación-. 

Muchas empresas están advirtiendo a sus empleados sobre la posibilidad de compartir información sensible con ChatGPT y otros grandes modelos lingüísticos (LLM), incluido Googleque recomendó al personal que tuviera cuidado con el uso de los chatbots, incluido su propio LLM, Bard.

Los estafadores encontrarán formas creativas de utilizar cuentas de ChatGPT pirateadas. Protege las tuyas con 2FA para mantener a salvo tus datos y borra los registros de chat con regularidad. 

Únete al futuro


SUSCRÍBETE HOY

Claro, conciso y completo. Conozca los avances de la IA con DailyAI

Sam Jeans

Sam es un escritor de ciencia y tecnología que ha trabajado en varias startups de IA. Cuando no está escribiendo, se le puede encontrar leyendo revistas médicas o rebuscando en cajas de discos de vinilo.

×

PDF GRATUITO EXCLUSIVO
Adelántese con DailyAI

Suscríbase a nuestro boletín semanal y reciba acceso exclusivo al último eBook de DailyAI: 'Mastering AI Tools: Su guía 2024 para mejorar la productividad'.

*Al suscribirse a nuestro boletín de noticias, acepta nuestra política de privacidad. Política de privacidad y nuestro Condiciones generales