Крестный отец ИИ" опасается, что искусственный интеллект может захватить человечество

10 октября 2023 года

Джеффри Хинтон, которого часто называют "крестным отцом искусственного интеллекта" за его новаторские работы в области искусственных нейронных сетей, опасается, что ИИ вскоре может взять верх над человечеством.

В интервью программе 60 Minutes Хинтон объяснил, что, хотя он не может быть уверен в будущем ИИ, все может пойти очень плохо, и очень скоро, если мы не примем надлежащих мер предосторожности.

Хинтон пока не считает, что ИИ способен к самоосознанию, но "мы вступаем в период, когда впервые в истории у нас появятся вещи, более разумные, чем мы".

Хинтон не является типичным вершителем судеб ИИ. Он гордится своей новаторской работой и достижениями в области ИИ во время работы в Google. Он видит очевидные преимущества использования ИИ в здравоохранении и разработка новых лекарств.

Опасность, которую он подчеркивает, заключается в том, что мы не знаем, насколько сложные системы искусственного интеллекта "думают".

Говоря о способности ИИ к самообучению, Хинтон сказал: "Мы очень хорошо представляем себе, что он делает. Но как только он становится действительно сложным, мы не знаем, что происходит, так же как мы знаем, что происходит в вашем мозгу".

По мере совершенствования искусственного интеллекта разобраться в его внутреннем устройстве вряд ли станет проще. чёрный ящик.

"Я думаю, что через пять лет он сможет рассуждать лучше нас", - говорит Хинтон. По сути, люди вскоре могут стать вторыми по уровню интеллекта существами на планете и потерять контроль над ИИ.

Хинтон говорит: "Один из способов, с помощью которого эти системы могут выйти из-под контроля, - это написать собственный компьютерный код для самоизменения. И это то, о чем мы должны серьезно беспокоиться".

 

Если бы шимпанзе однажды решили восстать и напасть на людей, люди бы победили, потому что мы умнее. Если бы ИИ стал умнее людей и решил, что мы ему не нравимся, нас постигла бы та же участь.

Разве мы не можем просто выключить компьютеры, если они начнут плохо себя вести? Хинтон утверждает, что, прочитав и изучив всю человеческую литературу и политические козни, ИИ станет мастером манипулирования людьми, чтобы этого не произошло.

На вопрос о том, возьмет ли ИИ верх над человечеством, Хинтон ответил: "Да, это вполне возможно. Я не говорю, что это произойдет. Если бы мы могли остановить их желание, это было бы замечательно. Но пока не ясно, сможем ли мы остановить их желание".

Хинтон уволился из Google в мае этого года, ссылаясь на риски ИИ, которые, по его мнению, не были учтены. Он присоединился к 350 лидерам в области ИИ, подписавшим заявление, опубликованное Центром безопасности ИИ (CAIS).

Сайт Заявление CAIS сказал: "Смягчение риска вымирания в результате воздействия ИИ должно стать глобальным приоритетом наряду с другими рисками общественного масштаба, такими как пандемии и ядерная война".

Хинтон, очевидно, все еще считает, что риски не преувеличены.

"Эти существа понимают, а поскольку они понимают, нам нужно хорошенько подумать о том, что будет дальше, а мы просто не знаем".

Присоединяйтесь к будущему


ПОДПИСАТЬСЯ СЕГОДНЯ

Четко, лаконично, всесторонне. Получите представление о развитии искусственного интеллекта с помощью DailyAI

Юджин ван дер Ватт

Юджин - выходец из электронной инженерии и обожает все, что связано с техникой. Когда он отдыхает от чтения новостей об искусственном интеллекте, вы можете найти его за столом для игры в снукер.

×

ЭКСКЛЮЗИВНЫЙ БЕСПЛАТНЫЙ PDF
Будьте впереди с DailyAI

Подпишитесь на нашу еженедельную рассылку и получите эксклюзивный доступ к последней электронной книге DailyAI: "Освоение инструментов искусственного интеллекта: Ваше руководство по повышению производительности в 2024 году".

* Подписываясь на нашу рассылку, вы принимаете наши Политика конфиденциальности и наш Условия и положения