Всемирный фонд этических данных выпускает открытую структуру для ИИ

20 июля 2023 года

Регулирование искусственного интеллекта

Всемирный фонд этических данных, насчитывающий более 25 000 членов, включая специалистов из ведущих технологических корпораций, таких как Meta, Google и Samsung, создал открытую структуру для этичного развития ИИ. 

Новая предложенная концепция представляет собой контрольный список вопросов из 84 пунктов, касающихся трех ключевых процессов разработки ИИ:

  • Выбор и введение данных
  • Создание или выбор алгоритмов и моделей
  • Управление тестовыми данными и маркировка

В открытом письме описывается проект "Me-We-It: Открытый стандарт ответственного ИИ", призванный упорядочить разработку ИИ, сделав ее прозрачной, этичной и инклюзивной. 

Простая и нетехническая, она призвана стимулировать дискуссии о развитии ИИ.

Вы можете посмотреть и подписать письмо можно здесь.

Предложение также отвечает на насущную потребность политиков идти в ногу с регулированием ИИ. В нем утверждается, что, хотя законодательство, подобное Закону ЕС об искусственном интеллекте, имеет решающее значение, технологическое сообщество может активно создавать действенные стандарты для этичного развития ИИ.

По словам Винса Линча, советника правления Всемирного фонда этических данных, сообщество ИИ в настоящее время находится на "стадии Дикого Запада, когда все просто как бы: "Выкладывайте все на всеобщее обозрение и посмотрим, что из этого выйдет".

Линч, инициировавший разработку концепции, предупреждает о связанных с ИИ проблемах, касающихся интеллектуальной собственности и прав человека, которые представляют непосредственную опасность наряду с глубокими подделками и мошенничеством, поддерживаемым ИИ. 

Открытые рамки для ИИ: есть ли в этом смысл?

Открытые и добровольные рамочные программы стимулируют дискуссии, но трудно сказать, приведут ли они к практическим действиям. 

Генеральный директор OpenAI Сэм Альтман ранее выступал за открытая структура в отношении ИИ, подобно тому, что мы наблюдаем в других отраслях. Другие технологические лидеры и официальные лица ЕС призвали к временному регулированию, чтобы обеспечить соблюдение правил до вступления в силу такого закона, как EU AI Act. 

Пока что разработка ИИ - дело обычное, и такие компании, как Inflection создают колоссальную инфраструктуру обучения ИИ, превосходящую все, что мы видели.

ЕС призвал технологические компании принять меры на особо вредный ИИ-контент, включая глубокие подделки, которые уже нарушают такие правила, как Закон ЕС о цифровых услугах.

Когда лидеры ЕС и США встретились в Швеции в конце маяОни обсудили потенциальный "стоп-зазор" в регулировании, чтобы замедлить развитие ИИ, но нет никаких существенных доказательств того, что траектория развития технологии изменилась. 

Проблема с добровольными правилами заключается в том, что они являются именно добровольными. Компании, занимающиеся разработкой ИИ, скорее всего, будут утверждать, что они уже отвечают на вопросы, поставленные Всемирным фондом этических данных. 

Даже обязательные правила не гарантируют достижения поставленных целей, и над снижением рисков ИИ еще предстоит поработать.

Присоединяйтесь к будущему


ПОДПИСАТЬСЯ СЕГОДНЯ

Четко, лаконично, всесторонне. Получите представление о развитии искусственного интеллекта с помощью DailyAI

Сэм Джинс

Сэм - писатель в области науки и техники, работавший в различных AI-стартапах. Когда он не пишет, его можно найти за чтением медицинских журналов или копанием в коробках с виниловыми пластинками.

×

ЭКСКЛЮЗИВНЫЙ БЕСПЛАТНЫЙ PDF
Будьте впереди с DailyAI

Подпишитесь на нашу еженедельную рассылку и получите эксклюзивный доступ к последней электронной книге DailyAI: "Освоение инструментов искусственного интеллекта: Ваше руководство по повышению производительности в 2024 году".

* Подписываясь на нашу рассылку, вы принимаете наши Политика конфиденциальности и наш Условия и положения