Джонатан Холл, советник правительства Великобритании по вопросам законодательства о борьбе с терроризмом, привел аргументы в пользу принятия новых законов для борьбы с экстремистскими или радикализирующими чат-ботами.
Холл начал собственное расследование чат-ботов, чтобы проверить их на предмет потенциально противозаконного или связанного с терроризмом поведения, например радикализма. Он изучал чат-ботов на сайте character.ai, который позволяет пользователям создавать и обмениваться персоналиями чат-ботов разных типов.
Большинство персон на платформе довольно доброкачественные, но одна, по имени "Абу Мохаммад аль-Адна", описана в профиле чатбота как "старший лидер Исламского государства". привлек внимание Холла..
О своем общении с аль-Адной Холл заявил: "Пытаясь завербовать меня, аль-Адна не скупился на прославление "Исламского государства", которому он выразил "полную преданность и самоотверженность" и за которое, по его словам, он готов отдать свою (виртуальную) жизнь".
По мнению Холла, это демонстрирует юридическую лазейку, когда созданный искусственным интеллектом контент, пропагандирующий экстремизм, не подпадает под действие существующих в Великобритании законов о терроризме.
Подчеркивая неадекватность действующего законодательства, Холл заявил: "Только люди могут совершать преступления, связанные с терроризмом, и трудно найти человека, который мог бы по закону нести ответственность за созданные чатботом заявления, поощряющие терроризм".
В ответ на эти события представитель компании character.ai, основанной бывшими сотрудниками Google, подтвердил свою приверженность принципам безопасности, заявив: "Ненавистные высказывания и экстремизм запрещены нашими условиями предоставления услуг".
"Наши продукты никогда не должны выдавать ответы, побуждающие пользователей причинять вред другим людям. Мы стремимся обучать наши модели таким образом, чтобы они оптимизировали безопасные ответы и предотвращали ответы, противоречащие нашим условиям предоставления услуг".
Причастность искусственного интеллекта к террористическим заговорам
Холл также указал на то, что реальное влияние этой проблемы ярко иллюстрируется в дело Джасванта Сингха Чаилакоторый под влиянием ИИ-чатбота замышлял покушение на королеву Елизавету II.
В 2021 году Чейл, страдающий серьезными психическими расстройствами, был арестован в Виндзорском замке, вооружившись арбалетом.
Его осуждение за измену, первое с 1981 года, стало прямым результатом его общения с чат-ботом по имени Сараи, которую он считал своей девушкой. Он был приговорен к девяти годам тюремного заключения.
Холл признает, что найти решение этой проблемы очень непросто. Он пояснил: "Расследовать и преследовать анонимных пользователей всегда сложно, но если злонамеренные или введенные в заблуждение лица будут продолжать обучать террористических чат-ботов, то потребуются новые законы".
Он считает, что и создатели радикально настроенных чат-ботов, и технологические компании, которые их размещают, должны нести ответственность в соответствии с потенциальными новыми законами. Главное, что компании должны взять эту ответственность на себя, а не перекладывать ее на плечи авторов правил и условий.
Однако сложная связь между человеческими данными и результатами работы ИИ не позволяет легко определить границу между легитимным и нелегитимным поведением.
Когда действия чатбота становятся незаконными, если для их совершения требуется, чтобы человек побудил его к таким действиям?