Корпорация RAND, аналитический центр с глубокими связями с сетями финансирования технологических миллиардеров, в частности через Open Philanthropy, сыграла решающую роль в разработке исполнительного приказа президента Джо Байдена по ИИ.
Согласно PoliticoВ этом приказе, на который сильно повлиял эффективный альтруизм - философия, пропагандирующая подход к филантропии, основанный на данных, - были введены всеобъемлющие требования к отчетности по ИИ.
Участие RAND вызвало вопросы из-за значительного финансирования со стороны таких групп, как Open Philanthropy, связанных с такими лидерами технологического рынка, как Дастин Московиц. По словам представителя RAND Джеффри Хидэя, RAND существует для того, чтобы "[проводить] исследования и анализ по важнейшим темам дня, [и] затем [делиться] этими исследованиями, анализом и опытом с политиками".
Для этого были проведены обширные консультации по недавний указвключая подготовку окончательных документов.
Ранее в этом году корпорация RAND получила от Open Philanthropy более $15 миллионов в виде дискреционных грантов, предназначенных для проектов в области ИИ и биозащиты.
Компания Open Philanthropy, известная своим подходом эффективного альтруизма, поддерживает как личные, так и финансовые связи с такими предприятиями в сфере ИИ, как Anthropic и OpenAI.
Более того, ведущие фигуры RAND вплетены в корпоративную структуру этих компаний, занимающихся разработкой ИИ, что остается относительно компактной отраслью в высших эшелонах власти, по крайней мере в США.
Критики утверждают, что ориентация аналитического центра на эффективный альтруизм может исказить направленность его исследований, отодвинув на второй план такие насущные проблемы ИИ, как расовая предвзятость или нарушение авторских прав.
Динамика в RAND также отражает более широкую тенденцию, в которой Эффективный альтруизм все больше определяет политику в области ИИ - по крайней мере, вписывается в его повествование. Это движение, за которое выступают такие неоднозначные личности, как Сэм Бэнкман-Фрид, выступает за устранение долгосрочных экзистенциальных рисков, в том числе тех, которые создает продвинутый ИИ, например, разработка биооружия.
Однако такое внимание подвергается критике за то, что оно может служить интересам ведущих технологических компаний, отвлекая внимание от существующего вреда от ИИ.
По сути, эффективный альтруизм - это риск отложить немедленные, практические действия в пользу более гипотетических, долгосрочных планов.
Внутренняя борьба OpenAI: альтруизм против коммерциализации
OpenAI, изначально некоммерческая организацияСейчас компания пытается найти компромисс между этими альтруистическими целями и реалиями бизнеса и получения прибыли, особенно после таких инвестиций, как $1 миллиард от Microsoft и недавней оценки компании в $86 миллиардов.
OpenAI было довольно просто поддерживать эту философию, когда она была довольно одинока на вершине индустрии генеративного ИИ.
Теперь, когда конкуренция становится все более острой, особенно Gemini Ultra от Google, которая напрямую угрожает превосходству GPT-4, не так-то просто проявлять сдержанность и осторожность, сохраняя заветную позицию на вершине кучи моделей ИИ.
Напряжение в OpenAI возникло под руководством генерального директора Сэма Альтмана. Его подход к управлению OpenAI олицетворял собой конфликт между технокапитализмом Кремниевой долины и растущим количеством информации о рисках ИИ. Люди предполагали, что Альтман несерьезно относится к безопасности в компании, хотя это так и осталось неподтвержденным.
Несмотря на опасения членов совета директоров по поводу его приверженности принципам безопасности и прозрачности, восстановление Альтмана в должности генерального директора стало поворотным моментом в истории компании, подняв вопросы о влиянии эффективного альтруизма и власти совета директоров.
Вопрос в том, смогут ли идеалы эффективного альтруизма и долгосрочности сосуществовать с быстро развивающимися коммерческими и технологическими достижениями в сфере ИИ?
Регулирование может защитить деятельность ИИ по созданию стоимости
В начале года, Записка Люка Сернау в Google предположил, что сообщество ИИ с открытым исходным кодом представляет собой прямой вызов доминированию всех ведущих разработчиков ИИ.
В записке говорится: "В OpenAI мы часто оглядываемся через плечо. Кто преодолеет следующий рубеж? Каким будет следующий шаг? Но неудобная правда заключается в том, что мы не в состоянии выиграть эту гонку вооружений, как и OpenAI. Пока мы ссорились, третья фракция спокойно поедала наш обед. Я говорю, конечно же, об открытом исходном коде".
Модели с открытым исходным кодом, примером которых являются LLaMA компании Meta и МистральОни быстро сокращают разрыв между низовыми инновациями и большими технологиями.
Несмотря на то, что это преподносится как движение в сторону ответственного развития ИИ, стремление к регулированию ИИ со стороны таких компаний, как Google и OpenAI, может также подорвать сообщество ИИ с открытым исходным кодом, которое предлагает децентрализованную альтернативу централизованным моделям.
Конечно, модели с открытым исходным кодом также дешевле и позволяют предприятиям, исследовательским институтам, студентам и другим пользователям закладывать в свои решения определенный уровень собственности и суверенитета.
Движет ли коммерческими разработчиками ИИ искренняя забота о безопасном и этичном развитии ИИ, или же это отчасти стратегические маневры, направленные на сохранение доминирующего положения на рынке и контроля над инновациями в области ИИ?
В индустрии ИИ пересекаются альтруизм, политика и коммерция. По мере развития ИИ примирение этих различных интересов будет продолжать разделять мнения.