Генеральный директор Palantir Technologies Алекс Карп утверждает, что правительство США должно работать над созданием ИИ-оружия, несмотря на обоснованные опасения.
В Опубликованная в "Нью-Йорк Таймс" статьяКарп провел сравнение с Манхэттенским проектом и заявил, что смелые действия, подобные тем, что предприняли Оппенгеймер и его команда, жизненно важны для национальных интересов. Palantir производит программное обеспечение для выбора целей, планирования миссий и спутниковой разведки, которое в настоящее время используется силами обороны США.
Компания уже интегрировала искусственный интеллект в свои Платформа искусственного интеллекта (AIP) которая имеет как коммерческое, так и оборонное применение.
Проблема, с которой сталкиваются такие компании, как Palantir, заключается в том, что для разработки ИИ-оружия им нужны талантливые инженеры, а их трудно найти.
Карп сетует на нежелание многих инженеров Кремниевой долины работать над оборонными проектами, говоря, что их моральные соображения ошибочны и даже непатриотичны. Его разочарование усугубляется тем, что Регуляторы собираются в попытке затормозить развитие искусственного интеллекта.
Признавая реальные известные и неизвестные опасности, Карп заявил, что США должны быть в авангарде разработки ИИ-оружия, поскольку их враги не разделяют его сдержанности.
"Наши противники не станут предаваться театральным дебатам о достоинствах разработки технологий, имеющих критически важное военное и национальное применение. Они будут продолжать", - сказал он.
Оружие создается для того, чтобы быть опасным, но мы даже не понимаем, насколько опасным может быть оружие ИИ. Но Карп настаивает на том, что создание опасного оружия ИИ необходимо для обеспечения безопасности Запада.
Он процитировал Томаса Шеллинга, профессора экономики и теории игр из Гарварда и Йельского университета, который сказал: "Чтобы быть принудительным, насилие должно быть ожидаемым... Сила причинять боль - это сила торговаться. Использовать ее - это дипломатия, порочная дипломатия, но дипломатия".
Карп говорит, что угроза ИИ, о которой нам следует больше беспокоиться, заключается в том, как удержать ИИ в узде, если ему позволят интегрироваться в энергосистему, управление воздушным движением или оборона и разведывательные сети.
Однако это обоснованное беспокойство, похоже, не подкрепляет его аргументы. Констатируя очевидное в отношении ИИ как оружия, он сказал: "Способность программного обеспечения облегчить ликвидацию врага является предпосылкой его ценности для оборонных и разведывательных ведомств, с которыми мы работаем".
Мы опасаемся выпускать ИИ на свободу в электросетях или управлении воздушным движением, потому что беспокоимся о том, что может произойти, если операторы потеряют над ним контроль.
Создание мощного оружия с искусственным интеллектом для борьбы с вашими врагами обеспечивает защиту только в том случае, если вы сами решаете, кто является врагом. Если же оружие способно само определять это, то мы все в беде.