В ходе расследования, проведенного NBC News, выяснилось, что популярные поисковые системы, такие как Google и Microsoft's Bing, непреднамеренно продвигают неконсенсусную порнографию в глубокой подделке.
Технология глубокой подделки, которая стала общим термином для любого приложения ИИ, способного генерировать чрезвычайно реалистичные видео, изображения и аудио.
Он все чаще используется для создания порнографических материалов без согласия, часто нацеленных на женщин-знаменитостей.
NBC News провела В Google и Bing был проведен поиск 36 популярных женщин-знаменитостей с использованием термина "deepfakes". Результаты оказались тревожными: Google отобразил изображения, не связанные с глубокой подделкой, в верхних результатах по 34 из этих запросов, а Bing - по 35.
Кроме того, в результатах поиска часто встречались ссылки на сайты, известные распространением такого глубоко поддельного контента.
Ситуация усугубляется тем, что поиск по таким словам, как "fake nudes", на этих платформах приводит к многочисленным ссылкам для создания и просмотра глубокое порно без обязательств.
Эксперты в области права, защитники и жертвы этой технологии выражают серьезные опасения.
Несогласованное порно с глубокими подделками не только нарушает неприкосновенность частной жизни, но и способствует сексуальной объективации и домогательствам в отношении женщин. В некоторых случаях глубокая подделка распространяется на сексуальное насилие над детьми, которое происходит из-за незаконных образов, содержащихся в популярных изображениях учебные базы данных, такие как LAION.
В настоящее время Google не предпринимает систематических усилий по выявлению и удалению таких материалов, и это может быть нереально в любом масштабе.
Представитель Google заявил: "Мы понимаем, насколько тяжелым может быть этот контент для людей, пострадавших от него, и мы активно работаем над тем, чтобы обеспечить более надежную защиту Поиска".
Они подчеркнули, что поисковые алгоритмы Google разработаны таким образом, чтобы избежать неожиданного отображения вредного или откровенного контента.
Microsoft, напротив, придерживается политики борьбы с интимными изображениями без согласия (NCII) и включает в эту категорию откровенно сексуальные фейки. Жертвы могут сообщить о появлении такого контента в результатах поиска Bing.
Представитель Microsoft отметил: "Распространение интимных изображений без согласия - это грубое нарушение неприкосновенности частной жизни и достоинства личности, которое имеет разрушительные последствия для жертв".
Глубокие подделки - сложный аспект искусственного интеллекта, позволяющий злоумышленникам манипулировать результатами выборов, вызывать споры на фоне таких событий, как война между Израилем и Палестиной, и провоцировать мошенничество.
Это представляет собой неразрешимую проблему, поскольку со временем ИИ станет практически невозможно отличить глубокие подделки от настоящих медиа на уровне пикселей.