Всемирный фонд этических данных, насчитывающий более 25 000 членов, включая специалистов из ведущих технологических корпораций, таких как Meta, Google и Samsung, создал открытую структуру для этичного развития ИИ.
Новая предложенная концепция представляет собой контрольный список вопросов из 84 пунктов, касающихся трех ключевых процессов разработки ИИ:
- Выбор и введение данных
- Создание или выбор алгоритмов и моделей
- Управление тестовыми данными и маркировка
В открытом письме описывается проект "Me-We-It: Открытый стандарт ответственного ИИ", призванный упорядочить разработку ИИ, сделав ее прозрачной, этичной и инклюзивной.
Простая и нетехническая, она призвана стимулировать дискуссии о развитии ИИ.
Вы можете посмотреть и подписать письмо можно здесь.
Предложение также отвечает на насущную потребность политиков идти в ногу с регулированием ИИ. В нем утверждается, что, хотя законодательство, подобное Закону ЕС об искусственном интеллекте, имеет решающее значение, технологическое сообщество может активно создавать действенные стандарты для этичного развития ИИ.
По словам Винса Линча, советника правления Всемирного фонда этических данных, сообщество ИИ в настоящее время находится на "стадии Дикого Запада, когда все просто как бы: "Выкладывайте все на всеобщее обозрение и посмотрим, что из этого выйдет".
Линч, инициировавший разработку концепции, предупреждает о связанных с ИИ проблемах, касающихся интеллектуальной собственности и прав человека, которые представляют непосредственную опасность наряду с глубокими подделками и мошенничеством, поддерживаемым ИИ.
Открытые рамки для ИИ: есть ли в этом смысл?
Открытые и добровольные рамочные программы стимулируют дискуссии, но трудно сказать, приведут ли они к практическим действиям.
Генеральный директор OpenAI Сэм Альтман ранее выступал за открытая структура в отношении ИИ, подобно тому, что мы наблюдаем в других отраслях. Другие технологические лидеры и официальные лица ЕС призвали к временному регулированию, чтобы обеспечить соблюдение правил до вступления в силу такого закона, как EU AI Act.
Пока что разработка ИИ - дело обычное, и такие компании, как Inflection создают колоссальную инфраструктуру обучения ИИ, превосходящую все, что мы видели.
ЕС призвал технологические компании принять меры на особо вредный ИИ-контент, включая глубокие подделки, которые уже нарушают такие правила, как Закон ЕС о цифровых услугах.
Когда лидеры ЕС и США встретились в Швеции в конце маяОни обсудили потенциальный "стоп-зазор" в регулировании, чтобы замедлить развитие ИИ, но нет никаких существенных доказательств того, что траектория развития технологии изменилась.
Проблема с добровольными правилами заключается в том, что они являются именно добровольными. Компании, занимающиеся разработкой ИИ, скорее всего, будут утверждать, что они уже отвечают на вопросы, поставленные Всемирным фондом этических данных.
Даже обязательные правила не гарантируют достижения поставленных целей, и над снижением рисков ИИ еще предстоит поработать.