Исследование, опубликованное британским университетом Anglia Ruskin, выявило растущий спрос на созданные искусственным интеллектом CSAM на темных веб-форумах.
Исследователи д-р Дианна Дэви и проф. Сэм Лундриган проанализировали разговоры на этих форумах за последний год и обнаружили тревожную картину: пользователи активно изучают и делятся методиками создания подобных материалов с помощью инструментов искусственного интеллекта.
Мы обнаружили, что многие преступники ищут изображения детей, чтобы манипулировать ими, и что желание получить "жесткие" изображения, переходящие из "мягких", регулярно обсуждается", - объясняет доктор Дэви. в блоге.
Это развеивает заблуждение о том, что созданные ИИ изображения "не имеют жертв", поскольку в качестве исходного материала для таких манипуляций ИИ часто используются реальные детские изображения.
Исследование также показало, что участники форумов называют тех, кто создает CSAM с помощью ИИ, "художниками", а некоторые выражают надежду, что технология будет развиваться и сделает этот процесс еще проще, чем сейчас.
Такое преступное поведение стало нормой в этих онлайн-сообществах.
Профессор Лундриган добавил: "Проанализированные нами разговоры показывают, что благодаря распространению советов и инструкций по использованию ИИ таким образом, количество материалов, содержащих насилие над детьми, растет, а число преступлений увеличивается. Это усугубляет растущую глобальную угрозу насилия над детьми в Интернете во всех формах и должно рассматриваться как критически важная область для борьбы с этим видом преступлений".
Мужчина арестован за незаконное производство изображений искусственного интеллекта
В связанное дело Как сообщила в тот же день BBC, полиция Большого Манчестера (GMP) недавно объявила о "знаковом деле", связанном с использованием искусственного интеллекта для создания непристойных изображений детей.
Хью Нельсон, 27-летний мужчина из Болтона, признал себя виновным в 11 преступлениях, включая распространение и изготовление непристойных изображений, и должен быть приговорен 25 сентября.
Детектив-констебль Карли Бейнс из GMP назвала это дело "особенно уникальным и глубоко ужасающим", отметив, что Нельсон превратил "обычные повседневные фотографии" реальных детей в непристойные изображения с помощью технологии искусственного интеллекта. "
Дело против Нельсона еще раз иллюстрирует проблемы, с которыми сталкиваются правоохранительные органы при борьбе с этой новой формой цифровых преступлений.
GMP назвала это дело "настоящим испытанием для законодательства", поскольку использование искусственного интеллекта таким образом не рассматривается в действующем законодательстве Великобритании. Констебль Бейнс выразил надежду, что это дело "сыграет определенную роль в формировании будущего законодательства".
Проблемы, связанные с незаконными изображениями, созданными искусственным интеллектом, становятся все более актуальными
Эти события произошли после нескольких других громких дел, связанных с CSAM, сгенерированными искусственным интеллектом.
Например, в апреле мужчине из Флориды было предъявлено обвинение в том, что он якобы использовал искусственный интеллект для создания откровенных изображений ребенка-соседа. В прошлом году в Северной Каролине детский психиатр был приговорен к 40 годам тюремного заключения за создание искусственного интеллекта, генерирующего оскорбительные материалы из его детей-пациентов.
Совсем недавно Министерство юстиции США объявило об аресте 42-летний Стивен Андерегг в Висконсине за якобы создание более 13 000 изображений детей с насилием, сгенерированных искусственным интеллектом.
Устранение этих проблем является огромным приоритетом для индустрии ИИ, и были предложены различные стратегии, такие как:
- Обновление законодательства для конкретного решения проблемы CSAM, генерируемой искусственным интеллектом.
- Расширение сотрудничества между технологическими компаниями, правоохранительными органами и организациями по защите детей.
- Разработка более сложных средств обнаружения ИИ для выявления и удаления созданных ИИ CSAM.
- Повышение осведомленности общественности о вреде всех форм CSAM, включая контент, созданный искусственным интеллектом.
- Обеспечение более эффективной поддержки и ресурсов для жертв насилия, в том числе для тех, кто пострадал от манипуляций ИИ с их изображениями.
- Внедрение более строгих процессов проверки наборов данных для обучения ИИ, чтобы предотвратить включение CSAM.
Пока что эти меры оказались неэффективными.
Для того чтобы окончательно улучшить ситуацию, необходимо решить проблему как с тем, как оскорбительные изображения, созданные искусственным интеллектом, могут оставаться под техническим радаром, занимая серую зону в законодательстве, так и с тем, как ими можно манипулировать.