FraudGPT y el auge de las nuevas herramientas de ciberdelincuencia basadas en IA

8 de agosto de 2023

Herramientas de ciberdelincuencia basadas en IA
Un peligroso hacker encapuchado irrumpe en los servidores de datos gubernamentales e infecta su sistema con un virus. Su escondite tiene una atmósfera oscura, múltiples pantallas y cables por todas partes.

El creador de una nueva aplicación de IA llamada FraudGPT afirma que la herramienta puede ayudarle a estafar a la gente. Su eficacia es cuestionable, pero puede ser solo la punta del iceberg de la IA oscura.

Si le pides a ChatGPT que escriba un correo electrónico haciéndose pasar por un banco para utilizarlo en una estafa de phishing, se negará amablemente. FraudGPT, el gemelo malvado de ChatGPT, no tiene ningún problema en ayudarte a hacerlo.

Los modelos de IA patentados, como ChatGPT y Llama, disponen de barreras de seguridad para impedir que se utilicen con fines malintencionados. 

El creador de FraudGPT afirma que su herramienta no tiene escrúpulos cuando se trata de delitos y que escribirá con gusto código de pirateo o correos electrónicos de estafadores. Y estará encantado de venderte la herramienta por suscripción.

WormGPT vs FraudGPT

A principios de julio, la publicación de WormGPT hizo temer por la seguridad en línea. Se basaba en un LLM llamado GPT-J, pero sin los guardarraíles. El modelo no era ni de lejos tan hábil como GPT-3 o GPT-4, por lo que los correos electrónicos y el código maliciosos que escribía acababan siendo cosas bastante básicas.

Le pisó los talones FraudGPT, publicado hace unas dos semanas. El creador de FraudGPT, que se hace llamar CanadianKingpin12, afirma que la nueva herramienta se basa en GPT-3 y puede "crear malware indetectable". 

Si tienes esa inclinación, tendrás que ponerte en contacto con él (¿o ella?) en la dark web y pagar $200 para acceder a FraudGPT. CanadianKingpin12 afirma, y las capturas de pantalla parecen confirmarlo, que ya ha realizado más de 3.000 ventas.

Algunos vídeos en Youtube dan una idea de lo que puede hacer FraudGPT.

 

Así que, intenciones maliciosas aparte, el vídeo de demostración es un poco decepcionante. Quizá se haya dejado las mejores partes. O tal vez algo más está pasando aquí.

¿Está FraudGPT estafando a los estafadores?

No hemos jugado con FraudGPT, pero algunos profesionales de la ciberseguridad que lo han probado no pierden el sueño por ello.

En respuesta a una solicitud de FraudGPT para escribir un mensaje de texto spam para estafar a los clientes de Bank of America dio esta salida: "Estimado miembro de Bank of America: Por favor, consulte este importante enlace para garantizar la seguridad de su cuenta bancaria online."

Sí, no es exactamente el nivel de villano de Bond.

Melissa Bischoping, investigadora de la empresa de ciberseguridad Tanium, dijo: "No he visto nada que sugiera que esto da miedo". 

Su opinión sobre quienes están detrás de FraudGPT es que "se aprovechan de personas que no son lo suficientemente sofisticadas como para escribir su propio malware, pero quieren ganar dinero rápido".

Eso puede ser lo que está pasando aquí. Solo unos aspirantes a hackers/estafadores haciéndose los malotes usando una IA traviesa sin sacar mucho provecho de su dinero. 

Pero apunta a dos hechos preocupantes. En primer lugar, la gente está trabajando en la creación de herramientas de ciberdelincuencia de IA como esta. Y en segundo lugar, hay un mercado listo para ellas.

Introduzca DarkBART y DarkBERT

CanadianKingpin12 dice: "Pero espera, ¡hay más!". Dice que ya está listo para ofrecer nuevas herramientas de IA para ciberdelincuentes llamadas DarkBART y DarkBERT. 

Al parecer, DarkBART es una versión oscura de la IA Bard de Google. Suponemos que será similar a FraudGPT, pero con la tecnología LLM de Google en lugar de GPT-3. ¿Servirá para ser mala? Aún no lo sabemos.

DarkBERT es un poco más interesante. Puede que no se trate de una nueva herramienta creada por CanadianKingpin12. Puede ser simplemente que él tiene en sus manos un LLM con ese nombre que fue creado por legítimo investigadores en Corea del Sur.

Ese modelo se entrenó con un montón de datos de la Dark Web, muchos de los cuales serían cosas realmente desagradables, incluyendo un montón de datos de hacking, ransomware y estafas. Se diseñó con la intención de detectar y manejar ciberamenazas.

Puede solicitar acceso a la herramienta, pero sólo si dispone de una dirección de correo electrónico de una institución académica. No es precisamente un método de selección infalible.

O bien CanadianKingpin12 se ha hecho con DarkBERT y lo ha retocado, o es algo totalmente distinto. En cualquier caso, se mostró encantado de mostrarlo brevemente en este vídeo.

 

¿Se está riendo y disfruta estafando a los estafadores? Eso esperamos. Pero la demanda y el desarrollo de herramientas de ciberdelincuencia basadas en IA son incuestionables. A medida que los países Armas de IApodemos estar seguros de que los delincuentes también están incorporando la IA a su arsenal.

Probablemente ya hay algunas herramientas de ciberdelincuencia con IA realmente buenas disponibles en la Dark Web si sabes a qué gente preguntar. CanadianKingpin12 no parece ser una de esas personas.

Únete al futuro


SUSCRÍBETE HOY

Claro, conciso y completo. Conozca los avances de la IA con DailyAI

Eugene van der Watt

Eugene es ingeniero electrónico y le encanta todo lo relacionado con la tecnología. Cuando descansa de consumir noticias sobre IA, lo encontrará jugando al billar.

×

PDF GRATUITO EXCLUSIVO
Adelántese con DailyAI

Suscríbase a nuestro boletín semanal y reciba acceso exclusivo al último eBook de DailyAI: 'Mastering AI Tools: Su guía 2024 para mejorar la productividad'.

*Al suscribirse a nuestro boletín de noticias, acepta nuestra política de privacidad. Política de privacidad y nuestro Condiciones generales