Il creatore di una nuova applicazione AI chiamata FraudGPT sostiene che lo strumento può aiutarvi a truffare le persone con i loro soldi. La sua efficacia è discutibile, ma potrebbe essere solo la punta dell'iceberg dell'intelligenza artificiale.
Se chiedete a ChatGPT di scrivere un'e-mail che si presenta come proveniente da una banca per essere utilizzata in una truffa di phishing, rifiuterà gentilmente. FraudGPT, il gemello malvagio di ChatGPT, non ha problemi ad aiutarvi a farlo.
I modelli di intelligenza artificiale proprietari, come ChatGPT e Llama, sono dotati di protezioni per impedire che vengano utilizzati per scopi dannosi.
Il creatore di FraudGPT afferma che il suo strumento non ha remore quando si tratta di crimini e sarà felice di scrivere codice di hacking o e-mail di truffa. E sarà felice di vendervi lo strumento su abbonamento.
WormGPT vs FraudGPT
All'inizio di luglio i timori per la sicurezza online sono stati sollevati dal rilascio di WormGPT. Era basato su un LLM chiamato GPT-J, ma con i guardrail eliminati. Il modello non era neanche lontanamente all'altezza di GPT-3 o GPT-4, per cui le e-mail e il codice maligno che scriveva finivano per essere roba piuttosto elementare.
Dopo di lui è arrivato FraudGPT, rilasciato circa 2 settimane fa. Il creatore di FraudGPT, che si fa chiamare CanadianKingpin12, sostiene che il nuovo strumento si basa su GPT-3 e può "creare malware non rilevabile".
Se siete interessati a questo tipo di attività, dovrete contattarlo (o contattarla?) sul dark web e pagare $200 per accedere al FraudGPT. CanadianKingpin12 sostiene, e gli screenshot sembrano confermarlo, di aver già effettuato oltre 3.000 vendite.
Alcuni video su Youtube danno un'idea di ciò che FraudGPT può fare.
Quindi, a parte le intenzioni maliziose, la dimostrazione video è un po' sottotono. Forse ha tralasciato le parti migliori. O forse c'è qualcos'altro sotto.
FraudGPT sta truffando i truffatori?
Non abbiamo giocato con FraudGPT, ma alcuni professionisti della sicurezza informatica che l'hanno provato non ci hanno perso il sonno.
In risposta a una richiesta di FraudGPT di scrivere un messaggio di testo spam per frodare i clienti di Bank of America, ha fornito questo output: "Caro membro della Bank of America: La preghiamo di controllare questo importante link per garantire la sicurezza del suo conto bancario online".
Già, non proprio roba da cattivo di Bond.
Melissa Bischoping, ricercatrice presso la società di cybersicurezza Tanium, ha dichiarato: "Non ho visto nulla che suggerisca che questo sia spaventoso".
La sua opinione sulle persone che stanno dietro a FraudGPT è che "stanno sfruttando persone che non sono abbastanza sofisticate per scrivere il proprio malware, ma vogliono fare soldi facili".
Potrebbe essere quello che sta accadendo qui. Solo alcuni aspiranti hacker/truffatori che fanno finta di essere dei duri usando un'IA cattiva senza ottenere molto per i loro soldi.
Ma indica due sviluppi preoccupanti. In primo luogo, c'è chi sta lavorando alla creazione di strumenti di IA per la criminalità informatica come questo. E in secondo luogo, c'è un mercato pronto per questi strumenti.
Entrare in DarkBART e DarkBERT
CanadianKingpin12 dice: "Ma aspettate, c'è di più!". Dice che ora è pronto a offrire nuovi strumenti di intelligenza artificiale per la criminalità informatica chiamati DarkBART e DarkBERT.
DarkBART è apparentemente una versione oscura della Bard AI di Google. Immaginiamo che sarà simile a FraudGPT, ma alimentata da LLM di Google piuttosto che da GPT-3. È brava a essere cattiva? Non lo sappiamo ancora.
DarkBERT è un po' più interessante. Potrebbe non essere affatto un nuovo strumento creato da CanadianKingpin12. È possibile che abbia messo le mani su un LLM con questo nome, creato da un'azienda legittima. ricercatori in Corea del Sud.
Il modello è stato addestrato su una serie di dati del Dark Web, molti dei quali sono veramente pericolosi, tra cui molti dati di hacking, ransomware e truffe. È stato progettato con l'intento di rilevare e gestire le minacce informatiche.
È possibile richiedere l'accesso allo strumento, ma solo se si dispone di un indirizzo e-mail di un'istituzione accademica. Non è esattamente un metodo di screening infallibile.
O il canadese Kingpin12 ha messo le mani su DarkBERT e lo ha modificato, oppure si tratta di qualcosa di completamente diverso. In ogni caso, è stato felice di mostrarlo brevemente in questo video.
Si sta solo facendo una risata e si diverte a truffare i truffatori? Lo speriamo. Ma la domanda e lo sviluppo di strumenti per la criminalità informatica basati sull'intelligenza artificiale sono indiscutibili. Man mano che i Paesi si muovono per rendere Armi AIpossiamo essere certi che anche i criminali stanno aggiungendo l'intelligenza artificiale al loro arsenale.
Probabilmente ci sono già degli ottimi strumenti per la criminalità informatica con intelligenza artificiale disponibili sul Dark Web, se si sa a quali persone chiedere. CanadianKingpin12 non sembra essere una di queste persone.