Педофилы используют искусственный интеллект для создания изображений насилия над детьми

28 июня 2023 года

AI Patreon

Расследование BBC показало, что педофилы используют технологию искусственного интеллекта для создания и распространения реалистичных изображений сексуального насилия над детьми.

Эти незаконные изображения, созданные искусственным интеллектом, обычно доступны через сайты обмена контентом, такие как Patreon. Национальный совет начальников полиции (NPCC) выразил возмущение, подчеркнув "возмутительную" неспособность некоторых платформ взять на себя "моральную ответственность", несмотря на получение значительных прибылей. 

GCHQ, британское государственное агентство по разведке и кибербезопасности, отреагировало на доклад, заявив: "Преступники, совершающие сексуальные надругательства над детьми, используют все технологии, и некоторые считают, что будущее материалов о сексуальном насилии над детьми - за контентом, созданным искусственным интеллектом".

Для создания изображений люди используют Stable Diffusion, искусственный интеллект для создания изображений с открытым исходным кодом. Stable Diffusion позволяет пользователям вводить словесные подсказки, описывающие желаемое изображение.

Важно, что одна из версий Stable Diffusion имеет открытый исходный код под лицензией Apache 2.0, в отличие от Mid Journey и DALL-E, которые не позволяют пользователям использовать подсказки для создания графических или незаконных изображений. Это дает авторам возможность создавать практически любые изображения. 

BBC обнаружила случаи, когда Stable Diffusion использовалась для создания гиперреалистичных изображений сексуального насилия над детьми. Полиция Великобритании подтвердила, что уже сталкивалась с незаконными материалами, созданными ИИ. 

Внештатный исследователь и журналист Октавия Шипшенкс, которая провела расследование делоподелилась своими выводами с BBC через детскую благотворительную организацию NSPCC. "С тех пор как стало возможным использование изображений, созданных искусственным интеллектом, произошел огромный поток... Это не только совсем маленькие девочки, они [педофилы] говорят о малышах", - отметила она. 

В другом случае пользователи использовали платформу VR-порно для создания аватаров несовершеннолетних женщин. Один из пользователей якобы взял фотографию реальной несовершеннолетней девушки и наложил ее на одну из моделей.

Закон Великобритании относится к сгенерированным компьютером "псевдоизображениям", изображающим сексуальное насилие над детьми, так же, как и к реальным изображениям, поэтому их хранение, публикация или передача незаконны. 

Ян Критчли, руководитель отдела NSPCC по защите детей, утверждает, что, хотя "синтетические" изображения не изображают реальных детей, они могут привести к реальному ущербу. Он предупредил о потенциальной эскалации действий преступников "от мыслей, синтетических изображений до реального насилия над живым ребенком".

Как педофилы создавали и распространяли изображения?

Согласно исследованию, процесс распространения изображения включает в себя 3 этапа:

  • Педофилы генерируют изображения с помощью программ искусственного интеллекта.
  • Эти изображения продвигаются на таких платформах, как Pixiv, японский сайт для обмена фотографиями.
  • На этих платформах есть ссылки, направляющие клиентов к более откровенным изображениям, доступ к которым они могут получить, заплатив на таких сайтах, как Patreon.

Многие создатели изображений активно работали на Pixiv, который в основном использовался художниками манги и аниме. 

Однако платформа находится в Японии, где распространение сексуальных карикатур на несовершеннолетних не запрещено законом, что позволяет авторам продвигать свои работы с помощью групп и хэштегов.

С 31 мая компания Pixiv запретила все фотореалистичные изображения сексуального содержания с участием несовершеннолетних. Они также заявили, что укрепили свои системы мониторинга и выделяют больше ресурсов для борьбы с таким контентом.

Овечкин рассказал BBC, что речь идет о "распространении в промышленных масштабах". Более того, комментарии на Pixiv указывают на то, что некоторые предлагают материалы, не созданные искусственным интеллектом.

Многие аккаунты Pixiv содержат ссылки на их "неподцензурный контент", размещенный на Patreon, американской платформе обмена контентом стоимостью около $4 млрд (£3,1 млрд).

У Patreon более 250 000 авторов, среди которых известные знаменитости, журналисты и писатели. В ходе расследования были обнаружены аккаунты Patreon, открыто продающие сгенерированные ИИ непристойные детские изображения, причем цены варьировались в зависимости от типа материала.

ИИ стабильности и Patreon реагирует

Показав пример, Patreon подтвердил, что это нарушает их политику, и аккаунт был оперативно удален. 

Stable Diffusion, генератор изображений с искусственным интеллектом, использованный для создания этих изображений, был разработан в рамках глобального сотрудничества с участием ученых и компаний под руководством британской компании Stability AI. Как уже упоминалось, в открытой версии программы нет никаких фильтров, что позволяет создавать любые изображения. 

В ответ на это компания Stability AI ужесточила запрет на использование своего программного обеспечения в незаконных или аморальных целях, включая материалы о сексуальном насилии над детьми (CSAM).

Они заявили о решительной поддержке усилий правоохранительных органов по борьбе с незаконным использованием своей продукции.

Представитель NPCC Ян Критчли выразил обеспокоенность тем, что приток изображений, созданных искусственным интеллектом, или "синтетических" изображений может затруднить процесс идентификации реальных жертв насилия. Он сказал: "Это создает дополнительный спрос с точки зрения полиции и правоохранительных органов, чтобы определить, где реальный ребенок, где бы он ни находился в мире, подвергается насилию, в отличие от искусственного или синтетического ребенка". 

Критчли добавил, что общество достигло "переломного момента" в определении того, будут ли интернет и технологии открывать возможности или станут источником большего вреда.

NSPCC поддержала эти настроения, призвав технологические компании принять меры против тревожной скорости, с которой злоумышленники осваивают новые технологии. 

Анна Эдмундсон, руководитель отдела политики и связей с общественностью благотворительной организации, заявила, что компании знали об этих потенциальных рисках, но не предприняли существенных мер, подчеркнув, что "больше не может быть оправданий бездействию".

Представитель правительства заявил в ответ: "Законопроект о безопасности в Интернете потребует от компаний принятия активных мер по борьбе со всеми формами сексуального насилия над детьми в Интернете, включая груминг, прямые трансляции, материалы о сексуальном насилии над детьми и запрещенные изображения детей - или им грозят огромные штрафы".

Великобритания Законопроект о безопасности в Интернете Этот документ был составлен в основном до того, как генеративный ИИ "вошел в моду", однако он по-прежнему призван контролировать случаи причинения вреда, связанного с ИИ, в Интернете. 

Опасения по поводу глубоких подделок усиливаются

Это привлекает дополнительное внимание к роли ИИ в обмане и киберпреступлениях. Появление "глубоких подделок" - сверхреалистичных изображений, видео или аудио, созданных искусственным интеллектом, - породило множество этических проблем и проблем безопасности.

Глубокие подделки используют алгоритмы искусственного интеллекта для извлечения шаблонов движений лица, голосовых модуляций и языка тела из имеющегося аудио- или видеоконтента. Анализируя их, ИИ может создавать очень убедительные подделки, которые практически невозможно отличить от настоящих.

Кроме того, насилие над детьми, генерируемое ИИ, скорее всего, поставит под сомнение существующее законодательство во всем мире. Если в Великобритании сгенерированные ИИ незаконные детские изображения по закону приравниваются к реальным, то в других странах это может быть не так.

Законодателям трудно угнаться за искусственным интеллектом, который гораздо проворнее, чем громоздкие законодательные процессы.

Тем временем мошенники и преступники стирают границы между реальным и нереальным, используя пробелы в законодательстве.

Первое громкое дело о мошенничестве, поддерживаемом искусственным интеллектом произошло в 2019 году когда мошенники, используя искусственный интеллект, выдавали себя за голос генерального директора, чтобы убедить руководителя перевести 220 000 евро ($243 000), утверждая, что это срочный платеж поставщику. Руководитель полагал, что разговаривает с генеральным директором, но на самом деле он общался с глубокой подделкой.

В начале этого года в Интернете появилось поддельное изображение взрыв в Пентагоне распространилась в социальных сетях, вызвав временное падение фондового рынка США на 0,3%.

Многие опасаются, что ИИ будет использоваться для создания ложных новостных сообщений или клеветнического контента о политических деятелях. Политики уже используют созданные ИИ контент для поддержки своих кампаний.

Кроме того, участились случаи несанкционированной глубокой подделки порнографии, когда лица людей накладываются на откровенные изображения или видео без их согласия.

Сайт ФБР предупредило в июне этого года, рассказывая о секс-вымогательстве с использованием искусственного интеллекта, заявили: "Злоумышленники используют технологии и сервисы манипулирования контентом, чтобы использовать фотографии и видео - как правило, взятые из аккаунта человека в социальных сетях, открытого интернета или запрошенные у жертвы - для создания изображений на сексуальную тему, которые кажутся правдоподобными по сходству с жертвой, а затем распространяют их в социальных сетях, на публичных форумах или порнографических сайтах. Многие жертвы, среди которых есть и несовершеннолетние, не знают, что их изображения были скопированы, подделаны и распространены, пока на это не обратит внимание кто-то другой".

Документальный фильм из Великобритании, Моя блондинкаВ книге рассматривается реальный случай глубоко фальшивого порно мести, охвативший жизнь писательницы Хелен Морт.

Технологические компании, такие как Google, Twitter и Facebook, разрабатывают инструменты для выявления фальшивого контента, но по мере того, как ИИ становится все более изощренным, такие механизмы могут стать менее надежными.

Несмотря на достигнутый прогресс, люди, компании и общество в целом должны быть информированы о потенциальных рисках технологии глубокой подделки, которая была названа одной из самых неотвратимых и актуальных опасностей ИИ.

Присоединяйтесь к будущему


ПОДПИСАТЬСЯ СЕГОДНЯ

Четко, лаконично, всесторонне. Получите представление о развитии искусственного интеллекта с помощью DailyAI

Сэм Джинс

Сэм - писатель в области науки и техники, работавший в различных AI-стартапах. Когда он не пишет, его можно найти за чтением медицинских журналов или копанием в коробках с виниловыми пластинками.

×

ЭКСКЛЮЗИВНЫЙ БЕСПЛАТНЫЙ PDF
Будьте впереди с DailyAI

Подпишитесь на нашу еженедельную рассылку и получите эксклюзивный доступ к последней электронной книге DailyAI: "Освоение инструментов искусственного интеллекта: Ваше руководство по повышению производительности в 2024 году".

* Подписываясь на нашу рассылку, вы принимаете наши Политика конфиденциальности и наш Условия и положения