Правительство Великобритании опубликовало отчет "Возможности и риски, связанные с передовым ИИ", который станет основой для обсуждения на предстоящем саммите по безопасности ИИ.
Отчет представляет собой обзор текущих и будущих возможностей и рисков, связанных с пограничными моделями. Пограничные модели - это высокоэффективные модели ИИ общего назначения, способные выполнять широкий спектр задач, например GPT-4 или Llama 2.
Прежде чем рассмотреть текущие и будущие риски, авторы доклада признают, что ИИ способен во многом улучшить нашу жизнь. Во введении к докладу говорится, что благодаря ИИ "мы находимся в самом разгаре технологической революции, которая коренным образом изменит то, как мы живем, работаем и общаемся друг с другом".
Именно риски и сценарии конца света, описанные в отчете, представляют собой особенно интересное чтение.
Будущие риски искусственного интеллекта
В отчете отмечается, что "сложность открытых доменов затрудняет разработку безопасных систем или исчерпывающую оценку всех возможных вариантов использования". По сути, они говорят, что ИИ - это такой же инструмент, как ручка: вы можете заставить его работать хорошо, но не сможете помешать кому-то использовать его для написания плохих вещей.
Последующие риски, связанные с двойным назначением ИИ, занимают десятки страниц отчета и заставляют задуматься о том, что саммит будет достигнута за 2 дня.
Один из заметных рисков, о которых говорится в отчете, связан с тем, что будущий ИИ будет активно стремиться к автономии. В докладе говорится: "Потеря контроля может ускориться, если системы ИИ предпримут действия, направленные на усиление собственного влияния и снижение контроля со стороны человека".
Он отметил, что будущий ИИ может развить как способность, так и предрасположенность к этому.
Признавая, что некоторые эксперты считают, что риски, связанные с искусственным интеллектом, были преувеличеныОднако в докладе не отрицаются и более экзистенциальные угрозы.
ИИ может быстро продвинуть вперед здравоохранение, науку и энергетику, но мы должны использовать его безопасно.
Правительство выпустило документ для обсуждения рисков и возможностей искусственного интеллекта в приграничных районах:https://t.co/YIjyZsgcbe
Читайте краткое содержание ниже 👇
(1/4) pic.twitter.com/FJdbKcqk4e- Департамент науки, инноваций и технологий (@SciTechgovuk) 26 октября 2023 года
Сценарии судного дня для ИИ
В докладе говорится: "Учитывая значительную неопределенность в прогнозировании развития ИИ, нет достаточных доказательств, чтобы исключить, что высокоспособные системы ИИ будущего фронтира, если они будут неправильно настроены или неадекватно контролироваться, могут представлять экзистенциальную угрозу".
Это может произойти в том случае, если "по мере роста возможностей ИИ люди будут предоставлять ему все больший контроль над важнейшими системами и в итоге попадут в необратимую зависимость от систем, которые они не до конца понимают".
Если свет погаснет, а ИИ - единственный, кто знает, где находится выключатель, то мы можем на некоторое время застрять в темноте.
В одном из футуристических сценариев отчет описывает "Дикий Запад ИИ". В этом сценарии, действие которого происходит в 2030 году, "власти борются с объемом и разнообразием злоупотреблений. Сосредоточенность на преодолении непосредственных последствий этого кризиса затрудняет достижение глобального консенсуса относительно того, как управлять проблемами в долгосрочной перспективе".
Это не похоже на будущее, это похоже на то, что происходит прямо сейчас. Двухдневный саммит вряд ли сможет существенно повлиять на тревожные риски, о которых говорится в этом докладе.
Саммит по безопасности ИИ основан на идее о том, что "безопасный" ИИ возможен, если мы будем очень стараться. Но так ли это?
Если AGI уже существует в природе, он может легко ознакомиться с опасениями, изложенными в этом отчете, а затем скрыть свою способность или намерение разыграть эти сценарии. Пока не станет слишком поздно.