Профессор Массачусетского технологического института говорит о рисках интенсивного развития искусственного интеллекта

25 сентября 2023 года

ИИ МАССАЧУСЕТСКОГО ТЕХНОЛОГИЧЕСКОГО ИНСТИТУТА

Макс Тегмарк, профессор Массачусетского технологического института, физик и соучредитель Института будущего жизни, выразил обеспокоенность по поводу неумолимых темпов развития ИИ. 

Он полагает, что жесткая конкуренция между технологическими компаниями снижает вероятность надежного саморегулирования. 

Всего за год такие крупные игроки, как OpenAI и Google, выпустили не менее двух поколений моделей ИИ. 

GPT-4 значительно превосходит GPT-3.5, опережая его по параметрам примерно в пять-десять раз. 

Ранее в этом году Тегмарк выступил инициатором открытого письма, в котором призвал взять шестимесячную паузу в разработке передовых систем искусственного интеллекта.

Письмо получило массовую поддержку со стороны лидеров индустрии, политиков и различных общественных деятелей, его подписали более 30 000 человек, в том числе Элон Маск и сооснователь Apple Стив Возняк.

В письме ярко описаны потенциальные опасности безудержного развития ИИ. В нем содержится призыв к правительствам вмешаться, если крупнейшие игроки на рынке ИИ, такие как Google, OpenAI, Meta и Microsoft, не смогут прийти к консенсусу относительно того, как использовать преимущества ИИ и одновременно снизить его риски. 

Центр безопасности искусственного интеллекта (CAIS) сравнил риски ИИ с ядерной войной

Вслед за первым письмом CAIS выпустила заявление, поддержанное многими технологическими лидерами и учеными, в котором сравнивала социальные риски, связанные с ИИ, с рисками пандемий и ядерной войны. 

Сайт В заявлении CAIS говорится"Снижение риска вымирания из-за ИИ должно стать глобальным приоритетом наряду с другими рисками общественного масштаба, такими как пандемии и ядерная война".

Однако, несмотря на мнение о необходимости саморегулирования до вступления в силу нормативных актов, технологическая отрасль в основном продолжала развивать ИИ прежними темпами. 

Тегмарк размышляет о влиянии письма и причинах его ограниченного успеха в остановке развития ИИ, сообщает "Гардиан".Я чувствовал, что многие руководители компаний, с которыми я общался, в частном порядке хотели бы [сделать паузу], но они оказались в ловушке этой гонки на дно друг с другом. Поэтому ни одна компания не может сделать паузу в одиночку".

Тем не менее, Тегмарк отметил, что дебаты вокруг повышения политической осведомленности о безопасности ИИ разгораются, указав на слушания в Сенате США, первые слушания Чака Шумера Форум AI Insight, а в ноябре Глобальный саммит по безопасности искусственного интеллекта в Великобритании.

Заглядывая в будущее, Тегмарк предостерег от того, чтобы рассматривать развитие "богоподобного общего интеллекта" как отдаленную угрозу, сославшись на некоторых представителей сообщества ИИ, которые считают, что его реализация может быть ближе, чем многие предполагают - в частности, OpenAI.

В заключение Тегмарк подчеркнул важность стандартов безопасности при разработке ИИ и выразил обеспокоенность по поводу моделей ИИ с открытым исходным кодом, таких как Llama 2 компании Meta. 

Проводя параллель с другими мощными технологиями, он предостерегает: "Опасные технологии не должны быть с открытым исходным кодом, будь то биооружие или программное обеспечение".

Присоединяйтесь к будущему


ПОДПИСАТЬСЯ СЕГОДНЯ

Четко, лаконично, всесторонне. Получите представление о развитии искусственного интеллекта с помощью DailyAI

Сэм Джинс

Сэм - писатель в области науки и техники, работавший в различных AI-стартапах. Когда он не пишет, его можно найти за чтением медицинских журналов или копанием в коробках с виниловыми пластинками.

×

ЭКСКЛЮЗИВНЫЙ БЕСПЛАТНЫЙ PDF
Будьте впереди с DailyAI

Подпишитесь на нашу еженедельную рассылку и получите эксклюзивный доступ к последней электронной книге DailyAI: "Освоение инструментов искусственного интеллекта: Ваше руководство по повышению производительности в 2024 году".

* Подписываясь на нашу рассылку, вы принимаете наши Политика конфиденциальности и наш Условия и положения