Un video su TikTok sembra mostrare l'influencer di YouTube MrBeast che offre 10.000 telefoni iPhone 15 Pro ai follower per $2 ciascuno.
Non preoccupatevi di tirare fuori la carta di credito, perché il video era un deepfake generato dall'intelligenza artificiale che in qualche modo ha eluso la moderazione dei contenuti di TikTok.
MrBeast, il cui vero nome è Jimmy Donaldson, domina YouTube con 189 milioni di iscritti al suo canale. I suoi video sono piuttosto scandalosi e lo vedono fare cose come regalare un'isola da $800k o $1m che gli utenti devono spendere in un minuto.
Per questo motivo, sareste stati perdonati se aveste creduto per un attimo che avrebbe fatto qualcosa di folle come regalare 10.000 iPhone. Il pagamento anticipato di $2 avrebbe dovuto far capire che si trattava di una truffa.
Il video era un po' difettoso, ma aveva l'aspetto e il suono di MrBeast, quindi probabilmente ha ingannato molte persone prima che TikTok lo eliminasse.
Molte persone stanno ricevendo questo deepfake scam da me... Le piattaforme dei social media sono pronte a gestire l'aumento dei deepfake AI? È un problema serio pic.twitter.com/llkhxswQSw
- MrBeast (@MrBeast) 3 ottobre 2023
TikTok dispone di un processo di verifica per l'iscrizione di nuovi account e di politiche di moderazione dei contenuti, ma nessuna di queste ha individuato questo annuncio falso. Un commento al tweet di MrBeast diceva: "Ottenere la verifica su TikTok è facile come fare un pisolino".
MrBeast ha chiesto "Le piattaforme dei social media sono pronte a gestire l'aumento dei deepfake dell'IA?" e la risposta ovvia è: no, non lo sono.
Solo nell'ultima settimana abbiamo visto AI deepfakes di Tom Hanks in una pubblicità dentale e Gayle King che appare come sostenitrice di un prodotto per la perdita di peso.
Visualizza questo post su Instagram
Essere truffati per $2 o acquistare un prodotto per la perdita di peso che non funziona davvero è il limite inferiore dei potenziali danni che AI deepfakes potrebbe causare.
Il potenziale di disturbo delle elezioni o di diffusione di disinformazione dannosa è amplificato quando la persona che ci parla sembra essere qualcuno di cui ci fidiamo. Le aziende stanno cercando di sviluppare una filigrana digitale che identifichi i contenuti generati dall'intelligenza artificiale ma nessuno di essi sembra funzionare in modo affidabile.
Anche se sviluppassero un modo per contrassegnare i contenuti dell'IA, come potrebbero costringere le persone a usarli? Finché non troveremo un modo per sapere immediatamente quando qualcosa è generato dall'IA, dovremo essere molto cauti su ciò che crediamo.
Se è troppo bello per essere vero, probabilmente lo è.