Генеральный директор OpenAI Сэм Альтман взбудоражил технологическое сообщество, объявив, что искусственный интеллект (AGI) был "достигнут внутри компании", но позже сказал, что он "был просто мемом".
Сэма Альтмана вряд ли можно назвать таким же противоречивым, как Элона Маска, но он стал несколько полярной фигурой из-за игривой шутки, которую некоторые считают неуместной. В конце концов, он может считаться одним из самых влиятельных людей в сфере технологий.
Альтман пошутил, написав сообщение на форуме Reddit r/singularity, где он заявил: "AGI был достигнут внутри компании".
AGI, сокращение от artificial general intelligence, означает системы искусственного интеллекта, которые параллельны или даже превосходят когнитивные возможности человека. OpenAI теперь называет себя разработчиком AGI и намерена первой "прорваться" в эту парадигму.
Вскоре Альтман отредактировал свое легкомысленное заявление, добавив оговорку: "Очевидно, что это просто мем, вы все не успокоились, когда AGI будет достигнута, об этом не будет объявлено в комментариях на Reddit".
Многие обратились к Reddit и X, чтобы обвинить Альтмана в троллинге. - возможно, немного раздражает, когда люди искренне беспокоятся о будущем искусственного интеллекта.
EDIT: "agi был достигнут внутри (EDIT очевидно, что это просто мем, вы все не успокоились! когда agi будет достигнут, он не будет объявлен с комментарием на reddit...)" pic.twitter.com/nrEHnvuEcS
- Smoke-away (@SmokeAwayyy) 26 сентября 2023 года
"Сингулярность"
Форум, r/singularityВ первую очередь она посвящена обсуждению технологической сингулярности - момента, когда компьютерный интеллект может затмить человеческий, что приведет к непредсказуемым и необратимым изменениям в мире, каким мы его знаем.
В основе этого комментария лежит гипотетический сценарий, описанный философом Оксфордского университета Ником Бостромом в его влиятельной книге 2014 года "Суперинтеллект: Пути, опасности, стратегии.”
Бостром описывает экзистенциальные риски, которые может представлять сверхпродвинутый ИИ. Один из его мысленных экспериментов, известный как "Максимизатор скрепок", рисует картину ИИ, чье невинное намерение - произвести как можно больше скрепок - может случайно привести к гибели человечества.
Он объясняет, что ИИ будет рассматривать человеческие тела как ценный источник атомов для производства скрепок.
В шутливом ключе этого мысленного эксперимента, после сообщения Альтмана, исследователь OpenAI Уилл Депью (Will Depue) поделился в Twitter изображением, сделанным с помощью искусственного интеллекта, на котором видно, что "офисы OpenAI переполнены скрепками!".
ПОСЛЕДНИЕ НОВОСТИ: Офисы OpenAI переполнены скрепками! pic.twitter.com/rnV4dLi0cU
- Уилл Депью (@willdepue) 26 сентября 2023 года
Бостром также полагает: "ИИ быстро поймет, что было бы гораздо лучше, если бы людей не было, потому что люди могут решить отключить его".
Это знакомый научно-фантастический сюжет - например, машины в Матрице начали собирать людей для получения энергии.
Как говорит Морфеус, "человеческое тело генерирует больше биоэлектричества, чем 120-вольтовая батарея, и более 25 000 BTU тепла тела". Бострум полагает, что ИИ может прийти к подобным выводам, если его спровоцировать в правильных сценариях.
Замена человечества скрепками была бы, мягко говоря, причудливой судьбой для человеческой расы.