Новый отчет McAfee указывает на рост голосового мошенничества с использованием искусственного интеллекта

3 июля 2023 года

McAfee

В недавнем отчете McAfee говорится о тревожном росте мошенничества, в котором используется клонирование голоса с помощью искусственного интеллекта.

Так называемые "мошенники-самозванцы" - не новость. На сайте Федеральная торговая комиссия раскрывает что только в 2022 году подобные мошеннические действия привели к масштабным убыткам в США в размере $2,6 млрд, что на 30% больше, чем годом ранее.

Эти мошенничества, также известные как мошенничество с "неотложными семейными делами", заключаются в том, что мошенник манипулирует жертвой, заставляя ее поверить в то, что близкому человеку срочно нужны деньги.

В Недавнее исследование McAfeeКаждый четвертый респондент сообщил о том, что сталкивался с мошенничеством с использованием искусственного голоса, а каждый десятый признался, что лично стал жертвой. В исследовании McAfee подчеркивается, что мошенники могут клонировать голоса из аудиофрагментов, извлеченных из роликов социальных сетей.

Например, Эдди Камбербэтч, у которого более 100 000 подписчиков в социальных сетях, столкнулся с мошенничеством искусственного интеллекта, когда его бабушка и дедушка получили мошеннический звонок, выдающий себя за его голос. Они утверждали, что он попал в страшную автокатастрофу и ему срочно нужны деньги.

В другом случае канадская пара потеряла $21 000 канадских долларов ($15 449 долларов США) в результате аналогичного мошенничества с голосовым искусственным интеллектом.

ИИ-клон с голосом Бенджамина Перкина убедил его родителей, что его посадили в тюрьму за случайное убийство дипломата в автокатастрофе и ему нужны деньги на судебные издержки. Родители согласились, и Перкинс Раскрыто в газете The Washington Post"Нет никакой страховки. Ее не вернуть. Все пропало".

В ответ на рост мошенничества с использованием искусственного интеллекта Стив Гробман, директор по технологиям McAfee, предупредил: "Одна из важнейших вещей, которую следует признать в связи с достижениями в области искусственного интеллекта в этом году, - это то, что эти технологии стали доступны гораздо большему числу людей, включая реальное расширение масштабов в сообществе киберактёров. Киберпреступники могут использовать генеративный ИИ для создания фальшивых голосов и глубоких подделок, что раньше требовало гораздо большей изощренности".

Что говорится в отчете McAfee о мошенничестве с использованием искусственного интеллекта

Согласно последним данным McAfee, голосовые мошенники обычно используют эмоциональную связь жертв со своими близкими. 

Каждый десятый опрошенный лично подвергался нападкам, а 15% сообщили, что кто-то из их знакомых стал жертвой.

Судя по всему, эта проблема наиболее остро стоит в Индии, где 47% респондентов сообщили о своем опыте столкновения с этим видом мошенничества, на втором месте США - 14%, на третьем - Великобритания - 8%. 36% всех опрошенных взрослых заявили, что никогда не слышали о подобном мошенничестве.

Почти половина людей (45%), скорее всего, откликнется на просьбу о деньгах, если она исходит от друга или близкого человека, причем некоторые сфабрикованные сценарии выглядят более убедительными. 

Возглавляет список автомобильная авария или поломка: 48% респондентов указали, что, скорее всего, отреагируют на такую ситуацию. За ним следует ограбление - 47%. 

Если звонящий утверждает, что потерял телефон или бумажник, 43% человек, скорее всего, откликнется, а 41% помогут тому, кто сказал, что путешествует за границей и нуждается в помощи.

Около 40% респондентов заявили, что, скорее всего, ответят партнеру или супругу, а их матери - 24%. Среди родителей в возрасте 50 лет и старше 41% с наибольшей вероятностью ответят, если звонок якобы исходит от их ребенка. 

Интересно, что в большинстве известных случаев родители, бабушки и дедушки сообщают, что мошенник клонировал голос их ребенка или внука, чтобы осуществить обман. 

Будьте осведомлены о мошенничестве с использованием искусственного интеллекта

McAfee дает несколько рекомендаций, как избежать мошенничества с использованием голосового ИИ:

  • Создайте уникальное "кодовое слово" для своих детей, членов семьи или близких друзей. Если вы получите подозрительный экстренный звонок, спросите кодовое слово. 
  • Всегда сомневайтесь в источнике. Будь то звонок, сообщение или электронное письмо от незнакомого отправителя или даже от знакомого номера, потратьте время на размышления. Задайте вопросы, на которые мошенник не сможет ответить, например "Можете ли вы подтвердить имя моего сына?" или "Когда день рождения вашего отца?". Такая тактика может насторожить мошенника и создать неестественные паузы в разговоре, вызывая подозрения.
  • Сохраняйте эмоциональный контроль. Киберпреступники используют вашу эмоциональную связь с человеком, за которого они себя выдают, чтобы спровоцировать поспешную реакцию. Сделайте шаг назад и оцените ситуацию, прежде чем реагировать. 
  • Опасайтесь неожиданных звонков с незнакомых номеров.

Мошенничество, связанное с искусственным интеллектом, становится повсеместным, и пока не существует жесткого и быстрого способа борьбы с ним. В недавнем интервью Fox News аналитик по кибербезопасности сказал, что это может стоить Американцы $1tn в году если не установить флажок.

Просвещение по этому вопросу, включая использование кодовых слов и других тактик, чтобы отпугнуть мошенников, - это, пожалуй, самый эффективный способ борьбы с голосовым мошенничеством на данный момент.

Присоединяйтесь к будущему


ПОДПИСАТЬСЯ СЕГОДНЯ

Четко, лаконично, всесторонне. Получите представление о развитии искусственного интеллекта с помощью DailyAI

Сэм Джинс

Сэм - писатель в области науки и техники, работавший в различных AI-стартапах. Когда он не пишет, его можно найти за чтением медицинских журналов или копанием в коробках с виниловыми пластинками.

×

ЭКСКЛЮЗИВНЫЙ БЕСПЛАТНЫЙ PDF
Будьте впереди с DailyAI

Подпишитесь на нашу еженедельную рассылку и получите эксклюзивный доступ к последней электронной книге DailyAI: "Освоение инструментов искусственного интеллекта: Ваше руководство по повышению производительности в 2024 году".

* Подписываясь на нашу рассылку, вы принимаете наши Политика конфиденциальности и наш Условия и положения