Генеральный директор OpenAI Сэм Альтман активизирует обсуждение регулирования ИИ в преддверии появления "сверхразума".
В новой статье, опубликованной на сайте Блог OpenAIГенеральный директор компании Сэм Альтман и его коллеги Илья Суцкевер и Грег Брокман обсуждают продвижение ИИ к "сверхразуму", также известному как искусственный интеллект общего назначения (ИИОН).
Это произошло менее чем через неделю после того, как Сэм Альтман давал показания в Конгрессев котором говорится, что ИИ требует "срочного" регулирования, чтобы защитить общество и сохранить его преимущества.
Суперинтеллект описывает ИИ, превосходящий когнитивные способности человека, что, по мнению Альтмана, Суцкевера и Брокмана, достижимо в ближайшие десять лет.
Такие ИИ будут способны по производительности сравниться с крупнейшими компаниями мира, изменяя общество как в положительную, так и в отрицательную сторону.
В статье предлагаются три потенциальных пути снижения рисков, связанных со сверхинтеллектом:
1: Координация
Альтман, Суцкевер и Брокман призывают к тесному сотрудничеству между лидерами ИИ для поддержания безопасности и плавной интеграции сверхинтеллекта в общество.
Это может быть реализовано в рамках государственных проектов или взаимных соглашений между компаниями, когда лидеры ИИ договариваются об ограничении темпов роста интеллекта своих моделей.
2: Международный мониторинг
Во-вторых, они предлагают создать международное агентство суперразведки, подобное Международному агентству по атомной энергии (МАГАТЭ), основанному в 1957 году, для снижения рисков, связанных с появлением ядерных технологий.
Нормативно-правовая база, созданная агентством, будет внедряться добровольно и через национальные правительства.
3: Общественный контроль
В-третьих, OpenAI призывает к вовлечению общественности в разработку правил, касающихся сверхинтеллекта, предлагая, чтобы общественность контролировала "границы и умолчания" ИИ с помощью демократической системы.
Альтман, Суцкевер и Брокман говорят: "Мы пока не знаем, как сконструировать такой механизм, но планируем экспериментировать с его разработкой". Ранее компания OpenAI уже описывала По умолчанию - это поведение ИИ "из коробки", а границы - это ограничения, накладываемые на его возможности.
OpenAI также утверждает, что проекты с открытым исходным кодом, разработанные ниже установленного "порога" возможностей, должны поощряться.
Они утверждают: "Мы считаем, что остановить создание сверхразума было бы неинтуитивно рискованно и сложно".
Учитывая экспоненциальный рост ИИ в последнее десятилетие, видение OpenAI относительно регулируемого ландшафта ИИ может оказаться прозорливым.
Однако индустрия искусственного интеллекта наверняка подвергнется испытанию призывом компании к сотрудничеству и готовностью к регулированию. Пока мало что говорит о перекрестном сотрудничестве между лидерами в области ИИ.
Достижение конкурентных целей при одновременной защите общества будет непростой задачей, и, если верить OpenAI, время действовать в отношении сверхинтеллекта ИИ пришло.