Der Schöpfer einer neuen KI-Anwendung namens FraudGPT behauptet, das Tool könne Ihnen helfen, Menschen um ihr Geld zu betrügen. Wie effektiv es dabei ist, ist fraglich, aber es könnte nur die Spitze des dunklen KI-Eisbergs sein.
Wenn Sie ChatGPT bitten, eine E-Mail zu schreiben, die vorgibt, von einer Bank zu stammen, um sie für einen Phishing-Betrug zu verwenden, wird es höflich ablehnen. FraudGPT, der böse Zwilling von ChatGPT, hat kein Problem damit, Ihnen dabei zu helfen.
Proprietäre KI-Modelle wie ChatGPT und Llama verfügen über Sicherheitsvorkehrungen, die verhindern, dass sie für böswillige Zwecke verwendet werden.
Der Schöpfer von FraudGPT sagt, dass sein Tool keine Skrupel hat, wenn es um Verbrechen geht, und gerne Hacking-Code oder Betrüger-E-Mails schreibt. Und er verkauft das Tool gerne an Sie auf Abonnementbasis.
WormGPT gegen FraudGPT
Anfang Juli wurden mit der Veröffentlichung von WormGPT Sicherheitsbedenken im Internet geweckt. Er basierte auf einem LLM namens GPT-J, bei dem jedoch die Leitplanken entfernt worden waren. Das Modell war bei weitem nicht so versiert wie GPT-3 oder GPT-4, so dass die bösen E-Mails und der Code, den er schrieb, letztendlich ziemlich einfache Dinge waren.
Dicht auf den Fersen war FraudGPT, das vor etwa 2 Wochen veröffentlicht wurde. Der Schöpfer von FraudGPT, der unter dem Namen CanadianKingpin12 auftritt, behauptet, das neue Tool basiere auf GPT-3 und könne "unerkennbare Malware erstellen".
Wenn Sie dazu neigen, müssen Sie ihn (oder sie?) im Dark Web kontaktieren und $200 für den Zugang zu FraudGPT bezahlen. CanadianKingpin12 behauptet, und Screenshots scheinen zu bestätigen, dass er bereits über 3.000 Verkäufe getätigt hat.
Einige Videos auf Youtube geben Ihnen einen Eindruck davon, was FraudGPT leisten kann.
Abgesehen von der böswilligen Absicht ist die Videodemonstration ein wenig enttäuschend. Vielleicht hat er die besten Teile ausgelassen. Oder vielleicht geht es hier um etwas anderes.
Betrügt FraudGPT die Betrügerinnen und Betrüger?
Wir haben FraudGPT noch nicht ausprobiert, aber einige Cybersecurity-Experten, die es ausprobiert haben, sind davon überzeugt, dass es ihnen keine Ruhe lässt.
Als Antwort auf eine Anfrage an FraudGPT, eine Spam-SMS zu schreiben, um Kunden der Bank of America zu betrügen, gab es diese Ausgabe: "Liebes Bank of America Mitglied: Bitte überprüfen Sie diesen wichtigen Link, um die Sicherheit Ihres Online-Bankkontos zu gewährleisten."
Ja, nicht gerade das Niveau eines Bond-Bösewichts.
Melissa Bischoping, Forscherin bei der Cybersicherheitsfirma Tanium, sagte: "Ich habe nichts gesehen, was darauf hindeutet, dass dies beängstigend ist."
Sie ist der Meinung, dass die Leute, die hinter FraudGPT stecken, "auf Leute abzielen, die nicht erfahren genug sind, um ihre eigene Malware zu schreiben, sondern nur schnelles Geld verdienen wollen".
Das könnte hier der Fall sein. Nur ein paar Möchtegern-Hacker/Betrüger, die so tun, als wären sie knallhart und würden eine freche KI benutzen, ohne viel für ihr Geld zu bekommen.
Sie weist jedoch auf zwei besorgniserregende Entwicklungen hin. Erstens arbeiten Menschen an der Entwicklung solcher KI-Tools für die Cyberkriminalität. Und zweitens gibt es einen fertigen Markt für sie.
DarkBART und DarkBERT eingeben
CanadianKingpin12 sagt: "Aber warte, da ist noch mehr!" Er sagt, er sei jetzt bereit, neue KI-Tools für Cyberkriminalität namens DarkBART und DarkBERT anzubieten.
DarkBART ist offenbar eine dunkle Version von Googles Bard AI. Wir vermuten, dass sie ähnlich wie FraudGPT sein wird, aber von Googles LLM und nicht von GPT-3 angetrieben wird. Ist sie gut darin, böse zu sein? Wir wissen es noch nicht.
DarkBERT ist ein bisschen interessanter. Es handelt sich vielleicht gar nicht um ein neues Tool, das CanadianKingpin12 entwickelt hat. Es könnte sein, dass er nur ein LLM mit diesem Namen in die Hände bekommen hat, das von legitimen Forscher in Südkorea.
Dieses Modell wurde mit einer Reihe von Daten aus dem Dark Web trainiert, von denen ein großer Teil wirklich böses Zeug ist, darunter eine Menge Daten über Hacker, Ransomware und Betrug. Es wurde mit der Absicht entwickelt, Cyber-Bedrohungen zu erkennen und zu bewältigen.
Sie können den Zugang zu diesem Tool beantragen, aber nur, wenn Sie eine E-Mail-Adresse einer akademischen Einrichtung haben. Nicht gerade eine narrensichere Screening-Methode.
Entweder hat CanadianKingpin12 DarkBERT in die Finger bekommen und es optimiert, oder es ist etwas ganz anderes. Auf jeden Fall war er glücklich, es in diesem Video kurz zu zeigen.
Macht er sich nur einen Spaß daraus, die Betrüger zu verarschen? Wir hoffen es. Aber die Nachfrage nach und die Entwicklung von KI-Tools für die Cyberkriminalität ist unbestreitbar. Während die Länder dazu übergehen, die AI-Waffenkönnen wir sicher sein, dass auch Kriminelle KI in ihr Arsenal aufnehmen.
Wahrscheinlich gibt es im Dark Web bereits einige wirklich gute KI-Cybercrime-Tools, wenn man weiß, welche Leute man fragen muss. CanadianKingpin12 scheint einfach nicht zu diesen Leuten zu gehören.