Прокуроры штатов США оказывают давление на Конгресс, чтобы защитить детей от искусственного интеллекта

5 сентября 2023 года

Конгресс по искусственному интеллекту

Прокуроры всех 50 штатов США призывают Конгресс принять меры против потенциальной эксплуатации детей через порнографию, создаваемую искусственным интеллектом. 

В письме, адресованном лидерам республиканцев и демократов в Палате представителей и Сенате, генеральные прокуроры по всей стране просят законодателей "создать экспертную комиссию для изучения средств и методов искусственного интеллекта, которые могут быть использованы для эксплуатации детей" и расширить действующие законы, чтобы включить в них материалы, созданные искусственным интеллектом для сексуального насилия над детьми.

"Мы участвуем в гонке со временем, чтобы защитить детей нашей страны от опасностей ИИ", - говорится в письме, которое было заранее распространено среди Ассошиэйтед Пресс

"Действительно, пресловутые стены города уже пробиты. Настало время действовать".

Инициативу возглавил генеральный прокурор Южной Каролины Алан Уилсон, заручившись поддержкой всех 50 штатов. 

Уилсон выразил оптимизм по поводу того, что двухпартийная поддержка этого вопроса может вылиться в законодательные действия. "Все сосредоточены на том, что нас разделяет", - сказал Уилсон. 

Он продолжил: "Я надеюсь, что, какими бы крайними или полярно противоположными ни были партии и люди в спектре, можно подумать, что защита детей от новых, инновационных и эксплуатационных технологий - это то, с чем могут согласиться даже самые диаметрально противоположные люди - и, похоже, они согласились".

Гонка по защите детей от рисков, связанных с искусственным интеллектом, продолжается

Это следует за заявление Всемирного экономического форума (ВЭФ) призывая политиков разработать защитные меры, чтобы оградить детей от вреда, связанного с ИИ.

Педофильские изображения, сгенерированные искусственным интеллектом, и изображения, которые, как кажется, сексуализируют детей, появляются по всему интернету, в том числе в реклама в социальных сетях.

Уилсон также указал на ряд рисков, которые несут в себе технологии искусственного интеллекта, включая создание сценариев "глубокой подделки" с участием несовершеннолетних или изменение изображения реального ребенка для изображения насилия. 

"Ваш ребенок никогда не подвергался нападению, его никогда не эксплуатировали, но его подобие используется так, как будто это так", - отметил он.

Такое уже случалось со взрослыми - недавно ФБР выпустило заявление, предостерегающее людей от Сексуальная эксплуатация, созданная искусственным интеллектом.' 

Еще одна проблема, которую он затронул, - это создание в цифровом формате фиктивных детей в целях эксплуатации. 

"Аргумент может быть таким: "Ну, я никому не причиняю вреда - на самом деле, это даже не реальный человек", но вы создаете спрос на индустрию, которая эксплуатирует детей", - говорит Уилсон.

Хотя Конгрессу еще предстоит принять всеобъемлющее законодательство по ИИ, в технологической отрасли уже предприняты некоторые шаги для решения этой проблемы. 

Такие платформы, как Meta, OnlyFans и Pornhub, начали использовать онлайн-инструмент под названием "Снимите это", позволяющий подросткам сообщать об откровенных изображениях и видео, включая контент, созданный искусственным интеллектом.

Похоже, это глобальная проблема, и предстоит проделать большую работу, чтобы обеспечить защиту детей от множества рисков, связанных с ИИ.

Присоединяйтесь к будущему


ПОДПИСАТЬСЯ СЕГОДНЯ

Четко, лаконично, всесторонне. Получите представление о развитии искусственного интеллекта с помощью DailyAI

Сэм Джинс

Сэм - писатель в области науки и техники, работавший в различных AI-стартапах. Когда он не пишет, его можно найти за чтением медицинских журналов или копанием в коробках с виниловыми пластинками.

×

ЭКСКЛЮЗИВНЫЙ БЕСПЛАТНЫЙ PDF
Будьте впереди с DailyAI

Подпишитесь на нашу еженедельную рассылку и получите эксклюзивный доступ к последней электронной книге DailyAI: "Освоение инструментов искусственного интеллекта: Ваше руководство по повышению производительности в 2024 году".

* Подписываясь на нашу рассылку, вы принимаете наши Политика конфиденциальности и наш Условия и положения