OpenAI Генеральный директор, Сэм AltmanОн считает, что необходимо создать международное агентство, которое будет следить за мощными передовыми моделями ИИ в будущем, чтобы обеспечить безопасность.
В интервью на подкасте All-In, Altman говорит, что вскоре мы увидим передовые модели ИИ, которые будут значительно мощнее и потенциально опаснее.
Altman сказал: "Я думаю, что в не очень отдаленном будущем - мы не говорим о десятилетиях и десятилетиях, - наступит момент, когда передовые системы ИИ смогут нанести значительный глобальный ущерб".
Сайт US и ЕС Власти обеих стран принимают законы, регулирующие ИИ, но Altman не верит, что негибкое законодательство сможет угнаться за тем, как быстро развивается искусственный интеллект. Он также критически относится к отдельным US государства, пытающиеся самостоятельно регулировать ИИ.
Речь идет об ожидаемых передовых системах искусственного интеллекта, Altman сказал: "И для такого рода систем мы осуществляем глобальный надзор за ядерным оружием, синтетическими биологическими материалами или вещами, которые могут оказать очень негативное влияние далеко за пределами одной страны.
Я бы хотел видеть некое международное агентство, которое рассматривало бы самые мощные системы и обеспечивало бы разумные испытания на безопасность".
Altman говорит, что такой международный надзор необходим для того, чтобы предотвратить появление сверхразумного ИИ, способного "сбежать и рекурсивно самосовершенствоваться".
Altman признал, что, хотя надзор за мощными моделями ИИ необходим, чрезмерное регулирование ИИ может затормозить прогресс.
Предложенный им подход схож с международным регулированием ядерной отрасли. Международное агентство по атомной энергии осуществляет надзор за государствами-членами, имеющими доступ к значительным объемам ядерных материалов.
"Если бы была проведена линия, по которой мы будем рассматривать только модели, обученные на компьютерах стоимостью более 10 миллиардов или более 100 миллиардов или сколько угодно долларов, я бы не возражал против этого. Есть какая-то черта, которая меня вполне устроит. И я не думаю, что это накладывает на стартапы какое-либо регулятивное бремя", - пояснил он.
Altman объяснил, почему он считает, что агентский подход лучше, чем попытки законодательно закрепить ИИ.
"Причина, по которой я настаивал на агентском подходе, заключается в том, чтобы не писать законы... через 12 месяцев все будет написано неправильно... И я не думаю, что даже если бы эти люди были настоящими мировыми экспертами, я не думаю, что они смогли бы сделать это правильно. Если смотреть на 12 или 24 месяца", - сказал он.
Когда будет выпущен GPT-5?
Когда его спросили о дате выхода GPT-5, Altman был предсказуемо недоброжелателен, но намекнул, что все может произойти не так, как мы думаем.
"Мы не торопимся с выпуском крупных моделей... Кроме того, я не знаю, будем ли мы называть ее GPT-5", - сказал он.
Altman указал на последовательные усовершенствования OpenAI на GPT-4 и заявил, что они лучше показывают, как компания будет внедрять будущие улучшения.
Так что, похоже, вероятность выхода "GPT-5" меньше, а больше вероятность того, что в GPT-4 будут добавлены дополнительные функции.
Нам придется подождать OpenAIанонсы обновлений позже сегодня, чтобы узнать, получим ли мы еще какие-нибудь подсказки о том, что ChatGPT Изменения, которые мы можем ожидать.
Если вы хотите прослушать полное интервью, вы можете слушайте здесь.