На TikTok появилось видео, в котором YouTube-активист MrBeast предлагает подписчикам 10 000 телефонов iPhone 15 Pro по цене $2 за штуку.
Не стоит доставать кредитную карту, потому что видео было сгенерировано искусственным интеллектом и каким-то образом избежало модерации контента на TikTok.
MrBeast, настоящее имя которого Джимми Дональдсон, занимает лидирующее положение на YouTube, имея 189 миллионов подписчиков на своем канале. Его видео довольно возмутительны, и он делает такие вещи, как раздача острова стоимостью $800k или $1m, которые пользователи должны потратить за минуту.
Так что вы вполне можете поверить, что он сделает что-то безумное, например, раздаст 10 000 iPhone. Авансовый платеж в размере $2 должен был намекнуть, что это мошенничество.
Видео было немного глючным, но оно выглядит и звучит точно так же, как MrBeast, так что, вероятно, оно одурачило многих людей, пока TikTok в конце концов не удалил его.
Многие люди получают от меня объявление о мошенничестве с глубокой подделкой... Готовы ли платформы социальных сетей справиться с ростом числа глубоких подделок, создаваемых искусственным интеллектом? Это серьезная проблема pic.twitter.com/llkhxswQSw
- MrBeast (@MrBeast) 3 октября 2023 года
В TikTok существует процесс верификации новых аккаунтов и политика модерации контента, но ни один из этих способов не помог поймать эту фальшивую рекламу. Один из комментариев к твиту MrBeast гласил: "Пройти верификацию на TikTok так же просто, как вздремнуть".
MrBeast задал вопрос: "Готовы ли платформы социальных сетей к росту числа искусственных подделок?" И очевидный ответ - нет, не готовы.
Только за последнюю неделю мы увидели ИИ глубокие подделки Тома Хэнкса в рекламе стоматологических услуг и Гейл Кинг, выступающая в поддержку средства для похудения.
Посмотреть это сообщение на Instagram
Мошенничество с $2 или покупка продукта для похудения, который на самом деле не работает, - это лишь малая часть потенциального ущерба, который может нанести AI deepfakes.
Возможность срыва выборов или распространения вредной дезинформации возрастает, когда собеседник представляется человеком, которому мы доверяем. Компании пытаются разработать цифровой водяной знак, идентифицирующий контент, созданный искусственным интеллектом, но Ни одна из них не работает надежно.
Даже если они разработают способ маркировки контента, созданного ИИ, как они заставят людей использовать его? Пока мы не найдем способ мгновенно определить, что что-то создано ИИ, нам придется быть очень осторожными в том, чему мы верим.
Если это слишком хорошо, чтобы быть правдой, то, скорее всего, так оно и есть.