Генеральный директор DeepMind проводит сравнение между рисками ИИ и климатическим кризисом

24 октября 2023 года

DeepMind AI

Демис Хассабис, генеральный директор Google DeepMind, утверждал, что к рискам, связанным с ИИ, следует относиться так же серьезно, как к климатическому кризису, и реагировать на них нужно незамедлительно.

Выступая перед британским саммитом по безопасности ИИ, который пройдет 1-2 ноября, Хассабис заявил, что мир не должен медлить с ответом на вызовы, создаваемые ИИ. 

"Мы должны относиться к рискам ИИ так же серьезно, как и к другим крупным глобальным проблемам, таким как изменение климата", - заявил Хассабис. 

 "Международному сообществу потребовалось слишком много времени, чтобы скоординировать эффективный глобальный ответ на это, и сейчас мы живем с последствиями этого. Мы не можем позволить себе такую же задержку с ИИ".

Хассабис имеет в виду Межправительственную группу экспертов по изменению климата (МГЭИК). 

Он и другие выступают за создание независимого международного совета по регулированию ИИ, подобно МГЭИК или Международному агентству по атомной энергии (МАГАТЭ). основана в 1957 году.

В 1955 году комиссар Уиллард Ф. Либби говорил о ядерной энергетике: "Наша большая опасность заключается в том, что это великое благо для человечества будет убито ненужным регулированием".

После создания МАГАТЭ до Чернобыля было относительно немного ядерных катастроф. Мы еще не знаем, как может выглядеть "катастрофа ИИ". 

Баланс преимуществ и рисков искусственного интеллекта

Признавая преобразующий потенциал ИИ в таких областях, как медицина и наука, Хассабис в то же время подчеркнул экзистенциальные угрозы, которые несет в себе эта технология, особенно разработка сверхразумных систем - или искусственного интеллекта общего назначения (ИИОН). 

"Я думаю, что начинать нужно с чего-то вроде МГЭИК, где речь идет о научном и исследовательском соглашении с докладами, а затем уже отталкиваться от этого", - советует Хассабис. 

"В конечном итоге я хотел бы видеть аналог Cern для безопасности ИИ, который занимается исследованиями в этой области - но на международном уровне. А потом, возможно, когда-нибудь появится аналог МАГАТЭ, который действительно проверяет эти вещи".

Компания DeepMind опубликовала множество работ по безопасности ИИ, в том числе технический блог в сотрудничестве с несколькими университетами, в котором указано, что модели должны быть оценены на предмет "экстремальных рисков" до начала любых тренировок. 

DeepMind также установила экспериментальные доказательства того, что ИИ ищет новые возникающие цели которые непредсказуемо расходятся с намерениями разработчиков, или "изгои".

Хассабис и представители других крупных компаний в области ИИ, таких как OpenAI, примут участие в саммите AI Safety Summit в ноябре. Правительство Великобритании опубликовала расписание в первый день мероприятия.

Присоединяйтесь к будущему


ПОДПИСАТЬСЯ СЕГОДНЯ

Четко, лаконично, всесторонне. Получите представление о развитии искусственного интеллекта с помощью DailyAI

Сэм Джинс

Сэм - писатель в области науки и техники, работавший в различных AI-стартапах. Когда он не пишет, его можно найти за чтением медицинских журналов или копанием в коробках с виниловыми пластинками.

×

ЭКСКЛЮЗИВНЫЙ БЕСПЛАТНЫЙ PDF
Будьте впереди с DailyAI

Подпишитесь на нашу еженедельную рассылку и получите эксклюзивный доступ к последней электронной книге DailyAI: "Освоение инструментов искусственного интеллекта: Ваше руководство по повышению производительности в 2024 году".

* Подписываясь на нашу рассылку, вы принимаете наши Политика конфиденциальности и наш Условия и положения