В открытом письме под названием "Построить ИИ для лучшего будущего" лидеры технологического мира обещают использовать ИИ для улучшения жизни людей и решения глобальных проблем.
В этом документе, который подписали 179 организаций и число которых постоянно растет, подчеркивается, что ИИ способен совершить революцию в повседневной жизни и работе, и проводятся параллели с такими историческими вехами, как печатный станок и интернет.
В письме сформулировано видение того, что ИИ должен служить катализатором прогресса человечества, повышая эффективность обучения с помощью ИИ-репетиторов, преодолевая языковые разрывы с помощью инструментов перевода, развивая здравоохранение с помощью диагностических средств, ускоряя научные исследования и упрощая повседневные задачи с помощью ИИ-помощников.
Среди подписавших письмо - инвестиционная компания SV Angel (создавшая письмо), OpenAI, Meta, Google, Microsoft, Salesforce и другие.
Письмо говорит: "Всем нам есть что внести в формирование будущего ИИ: и тем, кто использует его для творчества и обучения, и тем, кто разрабатывает новые продукты и услуги на базе этой технологии, и тем, кто использует ИИ для поиска новых решений самых серьезных проблем человечества, и тем, кто делится своими надеждами и опасениями по поводу влияния ИИ на их жизнь. ИИ предназначен для всех нас, и каждый из нас должен сыграть свою роль в создании ИИ для улучшения жизни людей".
"Мы, нижеподписавшиеся, уже ощущаем преимущества ИИ и стремимся создать ИИ, который будет способствовать лучшему будущему человечества - пожалуйста, присоединяйтесь к нам!"
А как же прием?
Письмо было, мягко говоря, холодным. В письме, состоящем всего из 100 слов, не делается особых попыток разобраться в траектории и влиянии ИИ.
Я что-то пропустил или это абсолютно ни о чем не говорит? pic.twitter.com/3AfktUfbzh
- AI Notkilleveryoneism Memes ⏸️ (@AISafetyMemes) 4 марта 2024 года
Один из критиков отмечает отсутствие прямого упоминания о безопасности ИИ, называя это "пиар-мусором". Другой называет заявление "абсолютно бессодержательным", критикуя его за то, что в нем не рассматриваются такие важные вопросы, как риск вымирания ИИ, разрушение источников средств к существованию или угроза геополитической гонки вооружений.
Абсолютно бессодержательное заявление, не дающее никаких обязательств по снижению риска вымирания от AGI, или массового разрушения средств к существованию людей, или управления угрозой геополитической гонки вооружений в сторону бойнеботов.
Пиар, полный банальностей и ничего не значащий.
- Джеффри Миллер (@primalpoly) 4 марта 2024 года
Это соглашение присоединяется ко многим другим межотраслевым соглашениям, таким как MLCommons сотрудничает с Big Tech для определения контрольных показателей безопасности, недавние обязательства по созданию единой системы водяных знаков, и Форум "Пограничная модель.
Не стоит забывать и о подписанном в начале 2023 года сейсмическом заявлении Центра безопасности ИИ (CAIS), в котором риски ИИ сравнивались с пандемиями и ядерной войной.
Технологические компании также недавно объединили свои усилия, чтобы Борьба с фальшивой предвыборной агитацией и заключила множество соглашений на таких ключевых мероприятиях, как Всемирный экономический форум (ВЭФ) и Саммит по безопасности искусственного интеллекта в Великобритании.
Генеративный искусственный интеллект переживает бурю в СМИ
Генеративный искусственный интеллект стал объектом пристального внимания и споров, особенно в связи с вопросами интеллектуальной собственности, этики использования и потенциального усиления господства больших технологий.
Одна из главных проблем связана с юридическими и этическими последствиями использования защищенного авторским правом контента без разрешения для обучения моделей ИИ.
Такие компании, как Stability AI и OpenAI, утверждают, что "добросовестное использование" защищает их, но это весьма спорная и непроверенная теория в эпоху генеративного ИИ.
В качестве ключевых проблем были отмечены сложность определения того, что значит "в стиле" того или иного художника, и ответственность таких организаций, как Крупномасштабная открытая сеть искусственного интеллекта (LAION), за составление обучающих баз данных.
Кроме того, критике подверглось быстрое внедрение технологическими компаниями продуктов на базе ИИ без полного устранения недостатков, таких как увековечивание вредных предубеждений, нарушение авторских прав и уязвимости в системе безопасности.
Открытые письма свидетельствуют об определенном уровне осведомленности. Но чтобы снизить реальные риски, нужно меньше говорить и больше действовать.