Политики и мировые лидеры высказались о генеративном ИИ в Давосе

22 января 2024 года

ВЭФ ИИ

ИИ присоединился к таким темам, как Украина, Путин и конфликт на Ближнем Востоке на Всемирном экономическом форуме 2024 года в Давосе.

Мероприятие стало свидетелем явно разрозненных дебатов о технологии, в которых политики и представители ООН смешивали свои взгляды с лидерами индустрии, такими как генеральный директор OpenAI Сэм Альтман и генеральный директор Microsoft Сатья Наделла.

Перед началом форума ВЭФ провел семинар "Отчет о глобальных рисках за 2024 год" поставила дезинформацию и дезинформацию, управляемые ИИ, на первое место, заметно опередив изменение климата, военные действия и экономические потрясения. 

Каролина Клинт, главный коммерческий директор по Европе в компании Marsh McLennan, сотрудничающей с авторами отчета, рассказал CNBC в докладе: "ИИ может создавать модели влияния на большие группы избирателей таким образом, какого мы еще не видели. За тем, как это будет происходить, нам будет очень важно наблюдать". 

Дезинформация искусственного интеллекта и вмешательство в выборы Это были ключевые темы на самом мероприятии, в ходе которых обсуждались плюсы производительности и эффективности, обусловленные искусственным интеллектом, и минусы дезинформации, глубоких подделок и других потенциально катастрофических последствий.

В целом тон этих дебатов свидетельствовал о большей сосредоточенности на ближайших рисках ИИ, чем на более абстрактных, долгосрочных последствиях, которые могут привести к вымиранию. В связи с предстоящими в этом году крупными выборами растет беспокойство по поводу того, как ИИ может быть использован для влияния на поведение избирателей.

Представители индустрии ИИ были настроены иногда с осторожным оптимизмом, иногда с оптимизмом, а иногда скептически в отношении способности индустрии справиться с этими рисками.

Давайте рассмотрим некоторые ключевые политические идеи, касающиеся искусственного интеллекта, которые были сделаны на этой неделе:

Генеральный секретарь ООН Антониу Гутерриш: осторожная позиция в отношении ИИ

Антониу Гутерриш выступил с мощным заявлением о рисках, связанных со стремительным развитием искусственного интеллекта, особенно критикуя поведение крупных технологических компаний. 

Он предостерег: "Могущественные технологические компании уже преследуют прибыль, безрассудно пренебрегая правами человека, неприкосновенностью частной жизни и социальными последствиями".

Подчеркивая более широкие последствия ИИ, Гутерриш провел параллель между проблемами, порождаемыми ИИ и климатическим кризисом, отметив отсутствие глобальной стратегии для решения обеих проблем.

Гутерриш подчеркнул острую необходимость совместного управления, заявив: "Нам нужно, чтобы правительства в срочном порядке работали с технологическими компаниями над системами управления рисками для текущих разработок ИИ, а также над мониторингом и смягчением вреда в будущем".

Урсула фон дер Ляйен: более оптимистичный взгляд

Между тем Урсула фон дер Ляйен, председатель Европейской комиссии, высказала более оптимистичный взгляд на ИИ. 

В своем выступлении она признала потенциальные риски, но также подчеркнула возможности, которые открывает ИИ. Фон дер Ляйен сказала: "ИИ - это также очень значительная возможность, если использовать его ответственно".

Фон дер Ляйен также рассказала об инициативах по использованию потенциала ИИ, упомянув о предложении подключить европейские стартапы в области ИИ к вычислительной мощности суперкомпьютеров континента.

Она сравнила эту инициативу с подходом Microsoft к ChatGPT: "Мы предоставим европейским стартапам и [малым и средним предприятиям] доступ к нашим собственным суперкомпьютерам мирового класса".

Геополитические столкновения вокруг искусственного интеллекта

Премьер-министр Китая Ли Цян выступил с предложением инвестировать в китайскую экономику, которая сталкивается с трудностями из-за длительных торговых ограничений со стороны США. Компания Nvidia, например, была неоднократно блокировался от поставок своих графических процессоров, ориентированных на искусственный интеллект, в Китай.

В своем недавнем выступлении Ли Цян выразил осторожную позицию по отношению к ИИ. Он остроумно заметил: "Люди должны управлять машинами, а не машины управлять нами". 

Подчеркивая необходимость ответственного подхода к развитию, он добавил: "ИИ должен развиваться в направлении, способствующем прогрессу человечества, поэтому в развитии ИИ должна быть "красная линия" - красная линия, которую нельзя переступать".

Ли Цян изложил план из пяти пунктов по улучшению экономического сотрудничества между Китаем и Западом. 

Он подчеркнул необходимость более тесной макроэкономической координации, беспрепятственной работы цепочек поставок, сосредоточенных вокруг Китая, расширения сотрудничества в области охраны окружающей среды и технологического сотрудничества. 

Хотя он не упоминал США напрямую, он неоднократно негативно отзывался о неуказанных странах, символически имея в виду США. 

Ли стремился успокоить глобальных инвесторов, которые стали с опаской относиться к Китаю из-за замедления экономического роста и усиления государственного вмешательства. Он подчеркнул, что инвестиции в китайский рынок - это возможность, а не риск, и заявил, что Коммунистическая партия приветствует иностранных инвесторов.

После выступления Ли речь Урсулы фон дер Ляйен в Давосе была посвящена демократии и западным ценностям. Она неоднократно упоминала демократию и свободу, представляя Европу как мирового лидера в решении глобальных проблем и подчеркивая важность сотрудничества.

Однако разногласия между мировыми лидерами были очевидны: многие члены делегации США уже уехали до начала переговоров с Китаем, что еще раз свидетельствует о привычном для нас симбиозном противостоянии. 

Растущая обеспокоенность по поводу использования искусственного интеллекта в избирательных кампаниях

Александра Рив Гивенс, генеральный директор Центра демократии и технологий, выразила опасения по поводу использования искусственного интеллекта в выборах, приведя в пример прошлые ситуации, когда технологии использовались для влияния на поведение избирателей.

Сама по себе эта концепция не нова. Однако дело в том, что ИИ привносит беспрецедентный реализм в фальшивую пропаганду и помогает масштабировать сомнительные тактики, например, робо-звонки

"В предыдущие избирательные циклы мы видели робозвонки. Мы видели автоматизированные кампании по рассылке текстовых сообщений, которые отправляли избирателям неверную информацию об их месте голосования, о том, открыт ли их избирательный участок или нет, а также целенаправленные манипулируемые сообщения, призванные повлиять на их поведение", - отметил Гивенс. 

Она рассказала о том, как генеративный ИИ усугубит эти проблемы: "Генеративный ИИ облегчает таргетирование. [...] теперь легче, чем когда-либо, придумывать индивидуальные, персонализированные сообщения".

Технологические компании защищали свою способность реагировать на глубокие подделки. Генеральный директор OpenAI Сэм Альтман сослался на последние стратегии его компания начала свою деятельность в преддверии выборов в США, и Мэтью Бриттин, президент по бизнесу и операциям в регионе EMEA компании Google, рассказал о возможностях больших языковых моделей (LLM) в борьбе с дезинформацией. 

"Мы хотим быть в таком положении, когда на все, что создается нашим генеративным ИИ, можно будет нанести водяной знак настолько незаметно, что даже если будет использован фрагмент видео или часть изображения, его можно будет обнаружить автоматически", - объясняет Бриттин, ссылаясь на SynthID, инструмент Google DeepMind, встраивающий цифровые водяные знаки в контент, созданный ИИ.

На сегодняшний день мало доказательств Эти методы эффективно работают в масштабе. Например. Работа, опубликованная исследователями из Калифорнийского университета в октябре пришли к выводу, что "все невидимые водяные знаки уязвимы".

Более того, даже если коммерческие генераторы изображений с искусственным интеллектом, такие как DALL-E, используют эффективный водяной знак, компании, как правило, не обязаны это делать.

Есть и другая сторона: добавление водяных знаков ИИ на подлинные изображения означает, что злоумышленники могут дискредитировать настоящие изображения как поддельные, что называется "дивидендами лжеца".

В этом году ИИ по-прежнему будет занимать важное место в политических дискуссиях.

Присоединяйтесь к будущему


ПОДПИСАТЬСЯ СЕГОДНЯ

Четко, лаконично, всесторонне. Получите представление о развитии искусственного интеллекта с помощью DailyAI

Сэм Джинс

Сэм - писатель в области науки и техники, работавший в различных AI-стартапах. Когда он не пишет, его можно найти за чтением медицинских журналов или копанием в коробках с виниловыми пластинками.

×

ЭКСКЛЮЗИВНЫЙ БЕСПЛАТНЫЙ PDF
Будьте впереди с DailyAI

Подпишитесь на нашу еженедельную рассылку и получите эксклюзивный доступ к последней электронной книге DailyAI: "Освоение инструментов искусственного интеллекта: Ваше руководство по повышению производительности в 2024 году".

* Подписываясь на нашу рассылку, вы принимаете наши Политика конфиденциальности и наш Условия и положения