Gefälschte Betrugsanzeige von MrBeast auf TikTok veröffentlicht

5. Oktober 2023

In einem Video auf TikTok schien der YouTube-Influencer MrBeast 10.000 iPhone 15 Pro Telefone für je $2 an seine Follower anzubieten.

Holen Sie Ihre Kreditkarte nicht heraus, denn das Video war ein von einer künstlichen Intelligenz generiertes Deepfake, das irgendwie die Inhaltskontrolle von TikTok umging.

MrBeast, dessen richtiger Name Jimmy Donaldson ist, dominiert YouTube mit 189 Millionen Abonnenten auf seinem Kanal. Seine Videos sind ziemlich unverschämt und zeigen ihn bei Dingen wie dem Verschenken einer $800k-Insel oder $1m, die die Nutzer in einer Minute ausgeben müssen.

Es wäre also verzeihlich, wenn man kurzzeitig glauben würde, dass er so etwas Verrücktes wie 10.000 iPhones verschenken würde. Die Vorauszahlung von $2 hätte allerdings ein Hinweis darauf sein müssen, dass es sich um einen Betrug handelt.

Das Video war ein wenig fehlerhaft, aber es sieht genauso aus wie MrBeast und hört sich auch so an, also hat es wahrscheinlich viele Leute getäuscht, bevor TikTok es schließlich gelöscht hat.

TikTok verfügt über ein Verifizierungsverfahren für neue Konten und Richtlinien zur Inhaltsmoderation, aber keine dieser Maßnahmen hat diese gefälschte Anzeige entdeckt. Ein Kommentar zu MrBeasts Tweet lautete: "Bei TikTok verifiziert zu werden, ist so einfach wie ein Nickerchen zu machen".

MrBeast fragte: "Sind Social-Media-Plattformen bereit, mit dem Aufkommen von KI-Deefakes umzugehen?" und die offensichtliche Antwort lautet: Nein, sind sie nicht.

Allein in der letzten Woche haben wir gesehen AI-Deepfakes von Tom Hanks in einer Zahnarztwerbung und Gayle King, die für ein Produkt zur Gewichtsabnahme wirbt.

Diesen Beitrag auf Instagram anzeigen

Ein Beitrag geteilt von Gayle King (@gayleking)

Um $2 betrogen zu werden oder ein Produkt zur Gewichtsabnahme zu kaufen, das nicht wirklich funktioniert, ist das untere Ende des potenziellen Schadens, den AI Deepfakes verursachen können.

Das Potenzial, Wahlen zu stören oder schädliche Desinformationen zu verbreiten, wird noch verstärkt, wenn die Person, die mit uns spricht, jemand zu sein scheint, dem wir vertrauen. Unternehmen versuchen, ein digitales Wasserzeichen zu entwickeln, das KI-generierte Inhalte identifiziert, aber keine von ihnen scheint zu funktionieren noch nicht zuverlässig.

Selbst wenn sie eine Möglichkeit zur Kennzeichnung von KI-Inhalten entwickeln würden, wie würden sie die Menschen zwingen, diese zu nutzen? Solange wir keine Möglichkeit finden, sofort zu erkennen, ob etwas KI-generiert ist, müssen wir mit dem, was wir glauben, besonders vorsichtig sein.

Wenn es zu schön ist, um wahr zu sein, ist es das wahrscheinlich auch.

Join The Future


HEUTE ABONNIEREN

Klar, prägnant, umfassend. Behalten Sie den Überblick über KI-Entwicklungen mit DailyAI

Eugene van der Watt

Eugene kommt aus der Elektronikbranche und liebt alles, was mit Technik zu tun hat. Wenn er eine Pause vom Konsum von KI-Nachrichten einlegt, findet man ihn am Snookertisch.

×

KOSTENLOSES PDF EXKLUSIV
Mit DailyAI immer einen Schritt voraus

Melden Sie sich für unseren wöchentlichen Newsletter an und erhalten Sie exklusiven Zugang zum neuesten eBook von DailyAI: 'Mastering AI Tools: Ihr Leitfaden für mehr Produktivität im Jahr 2024".

*Mit der Anmeldung zu unserem Newsletter akzeptieren Sie unsere Datenschutzbestimmungen und unsere Bedingungen und Konditionen