Генеральный директор OpenAI разрабатывает правила для сверхразумных ИИ

Май 24, 2023

Регулирование OpenAI

Генеральный директор OpenAI Сэм Альтман активизирует обсуждение регулирования ИИ в преддверии появления "сверхразума".

В новой статье, опубликованной на сайте Блог OpenAIГенеральный директор компании Сэм Альтман и его коллеги Илья Суцкевер и Грег Брокман обсуждают продвижение ИИ к "сверхразуму", также известному как искусственный интеллект общего назначения (ИИОН)

Это произошло менее чем через неделю после того, как Сэм Альтман давал показания в Конгрессев котором говорится, что ИИ требует "срочного" регулирования, чтобы защитить общество и сохранить его преимущества. 

Суперинтеллект описывает ИИ, превосходящий когнитивные способности человека, что, по мнению Альтмана, Суцкевера и Брокмана, достижимо в ближайшие десять лет. 

Такие ИИ будут способны по производительности сравниться с крупнейшими компаниями мира, изменяя общество как в положительную, так и в отрицательную сторону. 

В статье предлагаются три потенциальных пути снижения рисков, связанных со сверхинтеллектом: 

1: Координация

Альтман, Суцкевер и Брокман призывают к тесному сотрудничеству между лидерами ИИ для поддержания безопасности и плавной интеграции сверхинтеллекта в общество. 

Это может быть реализовано в рамках государственных проектов или взаимных соглашений между компаниями, когда лидеры ИИ договариваются об ограничении темпов роста интеллекта своих моделей. 

2: Международный мониторинг 

Во-вторых, они предлагают создать международное агентство суперразведки, подобное Международному агентству по атомной энергии (МАГАТЭ), основанному в 1957 году, для снижения рисков, связанных с появлением ядерных технологий. 

Нормативно-правовая база, созданная агентством, будет внедряться добровольно и через национальные правительства. 

3: Общественный контроль

В-третьих, OpenAI призывает к вовлечению общественности в разработку правил, касающихся сверхинтеллекта, предлагая, чтобы общественность контролировала "границы и умолчания" ИИ с помощью демократической системы. 

Альтман, Суцкевер и Брокман говорят: "Мы пока не знаем, как сконструировать такой механизм, но планируем экспериментировать с его разработкой". Ранее компания OpenAI уже описывала По умолчанию - это поведение ИИ "из коробки", а границы - это ограничения, накладываемые на его возможности. 

OpenAI также утверждает, что проекты с открытым исходным кодом, разработанные ниже установленного "порога" возможностей, должны поощряться.

Они утверждают: "Мы считаем, что остановить создание сверхразума было бы неинтуитивно рискованно и сложно". 

Учитывая экспоненциальный рост ИИ в последнее десятилетие, видение OpenAI относительно регулируемого ландшафта ИИ может оказаться прозорливым.

Однако индустрия искусственного интеллекта наверняка подвергнется испытанию призывом компании к сотрудничеству и готовностью к регулированию. Пока мало что говорит о перекрестном сотрудничестве между лидерами в области ИИ.

Достижение конкурентных целей при одновременной защите общества будет непростой задачей, и, если верить OpenAI, время действовать в отношении сверхинтеллекта ИИ пришло.

Присоединяйтесь к будущему


ПОДПИСАТЬСЯ СЕГОДНЯ

Четко, лаконично, всесторонне. Получите представление о развитии искусственного интеллекта с помощью DailyAI

Сэм Джинс

Сэм - писатель в области науки и техники, работавший в различных AI-стартапах. Когда он не пишет, его можно найти за чтением медицинских журналов или копанием в коробках с виниловыми пластинками.

×

ЭКСКЛЮЗИВНЫЙ БЕСПЛАТНЫЙ PDF
Будьте впереди с DailyAI

Подпишитесь на нашу еженедельную рассылку и получите эксклюзивный доступ к последней электронной книге DailyAI: "Освоение инструментов искусственного интеллекта: Ваше руководство по повышению производительности в 2024 году".

* Подписываясь на нашу рассылку, вы принимаете наши Политика конфиденциальности и наш Условия и положения