Недавно созданный Центр безопасности искусственного интеллекта (CAIS) во вторник, 30 мая, опубликовал заявление, подписанное 350 лидерами в области ИИ, учеными, инженерами и другими известными личностями.
Среди основных подписантов - пионеры ИИ Джеффри Хинтон и Йошуа Бенгио, генеральный директор OpenAI Сэм Альтман и его коллеги, руководители DeepMind, Anthropic и других ведущих компаний в области ИИ, а также ведущие ученые из Массачусетского технологического института, Беркли, Кембриджского университета и других ведущих научных учреждений мира.
"Смягчение риска вымирания из-за ИИ должно стать глобальным приоритетом наряду с другими рисками общественного масштаба, такими как пандемии и ядерная война". Заявление Центра безопасности искусственного интеллекта (CAIS) об искусственном интеллекте - 30 мая 2023 года.
Май ознаменовался обострением дискуссии о влиянии ИИ на общество.
Генеральный директор OpenAI Сэм Альтман выступил в Конгрессе с докладом о безопасности ИИ, а один из первых пионеров ИИ, Джеффри Хинтон, покинул Google, чтобы открыто говорить об ИИ.
CAIS основывается на намерениях технологических лидеров объединиться и сформировать согласованный план по снижению рисков ИИ, подчеркивая при этом его пользу и преимущества. Риски могут быть как краткосрочными, например, массовое сокращение рабочих мест, так и среднесрочными или долгосрочными, например, автономный ИИ начнет превосходить человеческий интеллект, и мы потеряем контроль.
Дэн Хендрикс, директор Центра безопасности искусственного интеллекта, рассказал Sky News"Люди были доминирующим видом на Земле благодаря нашему интеллекту. Но сейчас, когда ИИ становится все мощнее и умнее, в будущем мы не будем занимать такое же положение".
ИИ: материальные и нематериальные риски
Чем закончится ваш любимый фильм на тему ИИ? Есть что-то почти врожденное в риске ИИ, инстинктивный страх перед тем, что произойдет, когда "роботы захватят власть".
Однако сейчас долгосрочные риски ИИ в основном неосязаемы и во многом основаны на догадках, абстракциях и прогнозах.
Первое ощутимое влияние ИИ, скорее всего, будет ощущаться на рынке труда, где более К 2030 году под угрозой окажутся 375 миллионов рабочих мест. ИИ быстро развивается, поэтому эта оценка может оказаться консервативной. ИИ также грозит дискриминация, выдача себя за другого, риски кибербезопасности и применение оружия.
Технологические лидеры и ученые признают, что мы переживаем период стремительных инноваций, когда развитие технологий опережает темпы исследований.
Такое уже неоднократно случалось в истории человечества, например, во время появления атомной и ядерной энергии и создания интернета. Ранее в этом месяце Сэм Альтман из OpenAI высказался за создание международного агентства по ИИ, аналогичного Международное агентство по атомной энергии сформировалась в 1950-х годах.
Какими бы ни были риски ИИ, мы, скорее всего, столкнемся с ними лицом к лицу, поскольку трудно представить, что большие технологии смогут сдержать их прогресс, и мвсе аналитики считают, что саморегулирование - это несбыточная мечта.
Скептики сомневаются в прогрессе искусственного интеллекта
Дебаты об искусственном интеллекте - это не одностороннее движение, и некоторые скептически относятся к тому, как быстро они переросли в нарратив о вымирании.
Например, мы до сих пор не можем создать эффективные системы искусственного интеллекта, такие как автомобили без водителя, которые покажутся рудиментарными, если ИИ захватит планету.
Более того, компьютерный интеллект ИИ трудно сравнить с человеческим. Люди и другие биологические организмы способны обрабатывать сложные сенсорные данные, поступающие от пяти органов чувств, за считанные миллисекунды. Роботы не могут конкурировать даже с младенцами когда речь идет о сенсорных задачах.
Еще более поразительна энергоэффективность человеческого мозга - он потребляет меньше энергии, чем лампочка. В настоящее время центры обработки данных, в которых работают такие ИИ, как ChatGPT, требуют столько же энергии, сколько город. Преимущество биологии перед компьютерами заключается не только в интеллекте.
Однако, хотя легко указать на недостатки футуристических представлений о роботах, захвативших планету, это не исключает того, что люди используют ИИ для расширения собственных возможностей в негативных целях, что представляет собой гораздо более непосредственную опасность. Пока что риск лежит на нас, а не на самой технологии.
Хотя ИИ предстоит пройти еще долгий путь, прежде чем он начнет ходить среди нас в буквальном смысле слова, заявление CAIS является важной вехой в деле снижения надвигающихся рисков, таких как замена работы ИИ, обман и применение оружия.
Чтобы придать посланию убедительность, нам необходимо в ближайшее время увидеть свидетельства сотрудничества между действующими лицами, что означает нечто большее, чем подписание заявлений.