Недавние события в OpenAI высветили идеологию "эффективного альтруизма" и его ответвление - "долгосрочность".
Но вЧто означают эти "философии"? И как они влияют на политику и управление ИИ?
Изначально OpenAI была основана как некоммерческая организация. Затем, в 2019 году, она стала "закрытой" коммерческой организацией, определяемой как "партнерство между нашей первоначальной некоммерческой организацией и новой закрытой коммерческой организацией".
Как только компания узнала, на чем она сидит, она В конце концов, он не собирался вечно оставаться в стороне от инвесторов и получения прибыли.
С 2019 года роль эффективного альтруизма, который лежал в основе миссии OpenAI, сошла на нет.
Что такое эффективный альтруизм?
Эффективный альтруизм - это современная философия, основанная не так давно такими учеными Оксфордского университета, как Уильям Макаскилл и Тоби Орд.
В двух словах, она стремится к максимальному положительному воздействию на планету в общем смысле, определяемом как "использование доказательств и разума, чтобы понять, как принести максимальную пользу другим, и принятие мер на этой основе".
Его подмножество, долгосрочный подход, фокусируется на снижении экзистенциальных рисков для обеспечения благосостояния будущих поколений. Он родился из критики краткосрочных, циклических правительств. Он утверждает, что нынешнее управление не позволяет принимать систематические и последовательные меры, необходимые для поддержания нашей планеты.
Компания OpenAI, основанная с благородными целями разработки ИИ на благо человечества, разделяет эти принципы.
Однако коммерческая экспансия компании и поддержка инвестиций, таких как $1 миллиард от Microsoft, привели к конфликту между этими альтруистическими целями и практическими потребностями бизнеса.
Альтруистическая идеология в OpenAI
Это столкновение идеологий достигло точка перелома внутри OpenAI.
С одной стороны - бренд технокапитализма Кремниевой долины, поддерживающий разрушительные идеи с помощью огромного венчурного капитала.
С другой - более медленный и осторожный подход, который стал де-факто позицией боссов ИИ-технологий. Что еще они могут сказать перед лицом национального и международного давления, заставляющего их тщательно контролировать свою продукцию?
Чтобы искусственный интеллект развивался, он должен успокоить тех, кто его боится. Пока есть значительные дебаты Если говорить о том, действительно ли искусственный интеллект опасен, то можно сказать, что многие люди обеспокоены.
Эту дихотомию олицетворял Альтман, который, продвигая OpenAI в качестве технологической державы, одновременно предупреждал об экзистенциальных угрозах, исходящих от развитого ИИ. Опять же, какой у него был выбор?
Чтобы успокоить, Альтман подчеркнул, что структура OpenAI защищает компанию от рискованных путей, но его восстановление в должности генерального директора ставит крест на этом. Альтман был восстановлен в должности силой, независимо от того, считаете ли вы это искренним актом солидарности или нет.
"На бумаге власть была у совета директоров, так это представлял Сэм Альтман", - говорит Тоби Орд, один из основателей эффективного альтруизма и сотрудник Центра управления искусственным интеллектом (CAIS).
Он продолжил: "Вместо этого очень большая власть, похоже, принадлежит лично Альтману, а также сотрудникам и Microsoft".
Динамика и проблемы совета директоров
Увольнение Альтмана членами совета директоров, некоторые из которых были связаны с движением за эффективный альтруизм, ставит под угрозу способность OpenAI продолжать рекламировать себя как новаторскую компанию, ориентированную на гуманитарные выгоды.
Члены совета утверждают, что Альтман не был "откровенен в своих сообщениях", но большинство считает, что он не воспринимал безопасность всерьез.
Новый совет OpenAI, пока что подчиняющийся тем же правилам, что и старый, не окажет такого же сопротивления Альтману.
Разрешение этого кризиса с возвращением Альтмана и перестановками в совете директоров оставляет без ответа вопросы о будущем направлении развития компании и ее основополагающих принципах. OpenAI была развязана - Альтман не будет удален, пока не закончит.
Тем не менее, OpenAI будет сложно ускорить рискованные разработки в области ИИ только из-за этой перестановки в совете директоров. Если OpenAI слишком настойчив, они могут ускорить действия против них. Они находятся под пристальным наблюдением Такие организации, как ФТК, уже.
Как компании могут согласовать долгосрочную альтруистическую философию с реалиями технологического и коммерческого прогресса?
Совместимы ли эти двое? Были ли они когда-нибудь совместимы?