Демис Хассабис, генеральный директор Google DeepMind, утверждал, что к рискам, связанным с ИИ, следует относиться так же серьезно, как к климатическому кризису, и реагировать на них нужно незамедлительно.
Выступая перед британским саммитом по безопасности ИИ, который пройдет 1-2 ноября, Хассабис заявил, что мир не должен медлить с ответом на вызовы, создаваемые ИИ.
"Мы должны относиться к рискам ИИ так же серьезно, как и к другим крупным глобальным проблемам, таким как изменение климата", - заявил Хассабис.
"Международному сообществу потребовалось слишком много времени, чтобы скоординировать эффективный глобальный ответ на это, и сейчас мы живем с последствиями этого. Мы не можем позволить себе такую же задержку с ИИ".
Хассабис имеет в виду Межправительственную группу экспертов по изменению климата (МГЭИК).
Он и другие выступают за создание независимого международного совета по регулированию ИИ, подобно МГЭИК или Международному агентству по атомной энергии (МАГАТЭ). основана в 1957 году.
В 1955 году комиссар Уиллард Ф. Либби говорил о ядерной энергетике: "Наша большая опасность заключается в том, что это великое благо для человечества будет убито ненужным регулированием".
После создания МАГАТЭ до Чернобыля было относительно немного ядерных катастроф. Мы еще не знаем, как может выглядеть "катастрофа ИИ".
Баланс преимуществ и рисков искусственного интеллекта
Признавая преобразующий потенциал ИИ в таких областях, как медицина и наука, Хассабис в то же время подчеркнул экзистенциальные угрозы, которые несет в себе эта технология, особенно разработка сверхразумных систем - или искусственного интеллекта общего назначения (ИИОН).
"Я думаю, что начинать нужно с чего-то вроде МГЭИК, где речь идет о научном и исследовательском соглашении с докладами, а затем уже отталкиваться от этого", - советует Хассабис.
"В конечном итоге я хотел бы видеть аналог Cern для безопасности ИИ, который занимается исследованиями в этой области - но на международном уровне. А потом, возможно, когда-нибудь появится аналог МАГАТЭ, который действительно проверяет эти вещи".
Компания DeepMind опубликовала множество работ по безопасности ИИ, в том числе технический блог в сотрудничестве с несколькими университетами, в котором указано, что модели должны быть оценены на предмет "экстремальных рисков" до начала любых тренировок.
DeepMind также установила экспериментальные доказательства того, что ИИ ищет новые возникающие цели которые непредсказуемо расходятся с намерениями разработчиков, или "изгои".
Хассабис и представители других крупных компаний в области ИИ, таких как OpenAI, примут участие в саммите AI Safety Summit в ноябре. Правительство Великобритании опубликовала расписание в первый день мероприятия.