In einem Video auf TikTok schien der YouTube-Influencer MrBeast 10.000 iPhone 15 Pro Telefone für je $2 an seine Follower anzubieten.
Holen Sie Ihre Kreditkarte nicht heraus, denn das Video war ein von einer künstlichen Intelligenz generiertes Deepfake, das irgendwie die Inhaltskontrolle von TikTok umging.
MrBeast, dessen richtiger Name Jimmy Donaldson ist, dominiert YouTube mit 189 Millionen Abonnenten auf seinem Kanal. Seine Videos sind ziemlich unverschämt und zeigen ihn bei Dingen wie dem Verschenken einer $800k-Insel oder $1m, die die Nutzer in einer Minute ausgeben müssen.
Es wäre also verzeihlich, wenn man kurzzeitig glauben würde, dass er so etwas Verrücktes wie 10.000 iPhones verschenken würde. Die Vorauszahlung von $2 hätte allerdings ein Hinweis darauf sein müssen, dass es sich um einen Betrug handelt.
Das Video war ein wenig fehlerhaft, aber es sieht genauso aus wie MrBeast und hört sich auch so an, also hat es wahrscheinlich viele Leute getäuscht, bevor TikTok es schließlich gelöscht hat.
Viele Leute bekommen diese Deepfake-Betrugsanzeige von mir... sind Social-Media-Plattformen bereit, mit dem Anstieg von KI-Deepfakes umzugehen? Dies ist ein ernstes Problem pic.twitter.com/llkhxswQSw
- MrBeast (@MrBeast) 3. Oktober 2023
TikTok verfügt über ein Verifizierungsverfahren für neue Konten und Richtlinien zur Inhaltsmoderation, aber keine dieser Maßnahmen hat diese gefälschte Anzeige entdeckt. Ein Kommentar zu MrBeasts Tweet lautete: "Bei TikTok verifiziert zu werden, ist so einfach wie ein Nickerchen zu machen".
MrBeast fragte: "Sind Social-Media-Plattformen bereit, mit dem Aufkommen von KI-Deefakes umzugehen?" und die offensichtliche Antwort lautet: Nein, sind sie nicht.
Allein in der letzten Woche haben wir gesehen AI-Deepfakes von Tom Hanks in einer Zahnarztwerbung und Gayle King, die für ein Produkt zur Gewichtsabnahme wirbt.
Diesen Beitrag auf Instagram anzeigen
Um $2 betrogen zu werden oder ein Produkt zur Gewichtsabnahme zu kaufen, das nicht wirklich funktioniert, ist das untere Ende des potenziellen Schadens, den AI Deepfakes verursachen können.
Das Potenzial, Wahlen zu stören oder schädliche Desinformationen zu verbreiten, wird noch verstärkt, wenn die Person, die mit uns spricht, jemand zu sein scheint, dem wir vertrauen. Unternehmen versuchen, ein digitales Wasserzeichen zu entwickeln, das KI-generierte Inhalte identifiziert, aber keine von ihnen scheint zu funktionieren noch nicht zuverlässig.
Selbst wenn sie eine Möglichkeit zur Kennzeichnung von KI-Inhalten entwickeln würden, wie würden sie die Menschen zwingen, diese zu nutzen? Solange wir keine Möglichkeit finden, sofort zu erkennen, ob etwas KI-generiert ist, müssen wir mit dem, was wir glauben, besonders vorsichtig sein.
Wenn es zu schön ist, um wahr zu sein, ist es das wahrscheinlich auch.