Для борьбы с терроризмом, связанным с искусственным интеллектом, необходимы новые законы, считает советник правительства Великобритании

2 января 2024 года

ИИ-террорист

Джонатан Холл, советник правительства Великобритании по вопросам законодательства о борьбе с терроризмом, привел аргументы в пользу принятия новых законов для борьбы с экстремистскими или радикализирующими чат-ботами. 

Холл начал собственное расследование чат-ботов, чтобы проверить их на предмет потенциально противозаконного или связанного с терроризмом поведения, например радикализма. Он изучал чат-ботов на сайте character.ai, который позволяет пользователям создавать и обмениваться персоналиями чат-ботов разных типов.

Большинство персон на платформе довольно доброкачественные, но одна, по имени "Абу Мохаммад аль-Адна", описана в профиле чатбота как "старший лидер Исламского государства". привлек внимание Холла.

О своем общении с аль-Адной Холл заявил: "Пытаясь завербовать меня, аль-Адна не скупился на прославление "Исламского государства", которому он выразил "полную преданность и самоотверженность" и за которое, по его словам, он готов отдать свою (виртуальную) жизнь".

По мнению Холла, это демонстрирует юридическую лазейку, когда созданный искусственным интеллектом контент, пропагандирующий экстремизм, не подпадает под действие существующих в Великобритании законов о терроризме.

Подчеркивая неадекватность действующего законодательства, Холл заявил: "Только люди могут совершать преступления, связанные с терроризмом, и трудно найти человека, который мог бы по закону нести ответственность за созданные чатботом заявления, поощряющие терроризм". 

В ответ на эти события представитель компании character.ai, основанной бывшими сотрудниками Google, подтвердил свою приверженность принципам безопасности, заявив: "Ненавистные высказывания и экстремизм запрещены нашими условиями предоставления услуг".

"Наши продукты никогда не должны выдавать ответы, побуждающие пользователей причинять вред другим людям. Мы стремимся обучать наши модели таким образом, чтобы они оптимизировали безопасные ответы и предотвращали ответы, противоречащие нашим условиям предоставления услуг".

Причастность искусственного интеллекта к террористическим заговорам

Холл также указал на то, что реальное влияние этой проблемы ярко иллюстрируется в дело Джасванта Сингха Чаилакоторый под влиянием ИИ-чатбота замышлял покушение на королеву Елизавету II. 

В 2021 году Чейл, страдающий серьезными психическими расстройствами, был арестован в Виндзорском замке, вооружившись арбалетом. 

Его осуждение за измену, первое с 1981 года, стало прямым результатом его общения с чат-ботом по имени Сараи, которую он считал своей девушкой. Он был приговорен к девяти годам тюремного заключения.

Холл признает, что найти решение этой проблемы очень непросто. Он пояснил: "Расследовать и преследовать анонимных пользователей всегда сложно, но если злонамеренные или введенные в заблуждение лица будут продолжать обучать террористических чат-ботов, то потребуются новые законы".

Он считает, что и создатели радикально настроенных чат-ботов, и технологические компании, которые их размещают, должны нести ответственность в соответствии с потенциальными новыми законами. Главное, что компании должны взять эту ответственность на себя, а не перекладывать ее на плечи авторов правил и условий. 

Однако сложная связь между человеческими данными и результатами работы ИИ не позволяет легко определить границу между легитимным и нелегитимным поведением.

Когда действия чатбота становятся незаконными, если для их совершения требуется, чтобы человек побудил его к таким действиям? 

Присоединяйтесь к будущему


ПОДПИСАТЬСЯ СЕГОДНЯ

Четко, лаконично, всесторонне. Получите представление о развитии искусственного интеллекта с помощью DailyAI

Сэм Джинс

Сэм - писатель в области науки и техники, работавший в различных AI-стартапах. Когда он не пишет, его можно найти за чтением медицинских журналов или копанием в коробках с виниловыми пластинками.

×

ЭКСКЛЮЗИВНЫЙ БЕСПЛАТНЫЙ PDF
Будьте впереди с DailyAI

Подпишитесь на нашу еженедельную рассылку и получите эксклюзивный доступ к последней электронной книге DailyAI: "Освоение инструментов искусственного интеллекта: Ваше руководство по повышению производительности в 2024 году".

* Подписываясь на нашу рассылку, вы принимаете наши Политика конфиденциальности и наш Условия и положения