Более 100 ведущих экспертов в области ИИ опубликовали открытое письмо с требованием к компаниям, создающим технологии генеративного ИИ, таким как OpenAI, Meta и другие, открыть свои двери для независимого тестирования.
Их идея ясна: условия разработчиков ИИ сдерживают независимые исследования в области безопасности инструментов ИИ.
В число соавторов входят такие ведущие эксперты, как Перси Лян из Стэнфорда, лауреат Пулитцеровской премии Джулия Энгвин, Рене ДиРеста из Стэнфордской интернет-обсерватории, научный сотрудник Mozilla Деб Раджи, бывший член Европейского парламента Маритье Шааке и Суреш Венкатасубраманиан из Университета Брауна.
Исследователи утверждают, что уроки эпохи социальных сетей, когда независимые исследования часто маргинализировались, не должны повториться.
Для борьбы с этим риском они просят OpenAI, Meta, Anthropic, Google, Midjourney и других создать юридическое и техническое безопасное пространство для исследователей, чтобы они могли оценивать продукты ИИ, не опасаясь судебного преследования или запрета.
В письме говорится: "Хотя условия предоставления услуг компаний препятствуют злонамеренному использованию, они также не предусматривают никаких исключений для независимых добросовестных исследований, оставляя исследователей под угрозой приостановки аккаунта или даже судебной расправы".
Инструменты ИИ устанавливают строгие правила использования, чтобы предотвратить манипуляции в обход их защитных барьеров. Например, OpenAI недавно заклеймил расследование, проведенное Нью-Йорк Таймс" как "взлом". и Meta угрожали отозвать лицензии из-за споров об интеллектуальной собственности.
Недавнее исследование прощупал середину путешествия чтобы выявить многочисленные случаи нарушения авторских прав, что противоречило бы правилам и положениям компании.
Проблема в том, что, поскольку инструменты ИИ в значительной степени непредсказуемы, они зависят от людей, использующих их определенным образом, чтобы оставаться "безопасными".
Однако эта же политика затрудняет исследователям поиск и понимание моделей.
Письмо, Опубликовано на сайте Массачусетского технологического институтаОн делает два заявления:
1. "Во-первых, юридически безопасная гавань будет защищать добросовестные независимые исследования безопасности, защищенности и надежности ИИ, если они проводятся в соответствии с устоявшимися правилами раскрытия уязвимостей".
2. "Во-вторых, компании должны взять на себя обязательства по обеспечению более справедливого доступа, используя независимых рецензентов для модерации заявок исследователей на оценку, что защитит исследования в области безопасности от контрпродуктивных приостановок учетных записей и уменьшит опасения компаний, выбирающих своих собственных оценщиков."
В письме также представлено политическое предложение, разработанное совместно с некоторыми подписантами, в котором предлагается внести изменения в условия предоставления услуг компаниями, чтобы учесть результаты научных исследований и исследований в области безопасности.
Это способствует расширению консенсуса относительно рисков, связанных с генеративным ИИ, включая предвзятость, нарушение авторских прав и создание интимных изображений без согласия.
Выступая за "безопасную гавань" для независимой оценки, эти эксперты отстаивают интересы общества, стремясь создать экосистему, в которой технологии ИИ будут разрабатываться и внедряться ответственно, с учетом благополучия общества на первом плане.