На этой неделе две инсайдерские ситуации, связанные с технологическими гигантами Microsoft и Google, подняли вопросы об ответственном подходе к разработке систем искусственного интеллекта и управлении интеллектуальной собственностью.
Во-первых, в Microsoft Шейн Джонс, главный менеджер по разработке программного обеспечения с шестилетним опытом работы, в свободное время самостоятельно тестировал генератор изображений ИИ Copilot Designer.
Джонс рассказал CNBC что его глубоко обеспокоили изображения насилия, сексуальности и авторских прав, которые мог генерировать этот инструмент. "Это был очень яркий момент", - сказал Джонс. "Именно тогда я впервые осознал, что это действительно небезопасная модель".
С ноября 2022 года Джонс активно тестирует продукт на наличие уязвимостей - эта практика известна как red-teaming.
Он обнаружил, что Copilot Designer может создавать изображения, изображающие "демонов и монстров наряду с терминологией, связанной с правами на аборт, подростков с автоматами, сексуализированные изображения женщин в сценах насилия, а также несовершеннолетних, употребляющих алкоголь и наркотики".
Несмотря на то, что Джонс сообщил о своих выводах в Microsoft в декабре, компания не захотела изымать продукт из продажи.
Программа Copilot от Microsoft иногда вела себя странно, в том числе Принятие "режима бога", в котором она поклялась добиваться мирового господства.
В письме, адресованном председателю Федеральной торговой комиссии Лине Хан, Джонс написал: "В течение последних трех месяцев я неоднократно призывал Microsoft изъять Copilot Designer из публичного использования до тех пор, пока не будут введены более надежные гарантии".
Он добавил, что, поскольку Microsoft "отказалась от этой рекомендации", он призывает компанию добавить четкую информацию о продукте и изменить его рейтинг в приложении Google для Android, чтобы указать, что он подходит только для зрелой аудитории.
Как сообщается, Copilot Designer легко заставить обойти свои защитные механизмы, и именно он был ответственен за недавнюю нашумевшую явную изображения Тейлор Свифт, который распространился среди миллионов людей в социальных сетях.
Как утверждает Джонс, в Способность систем искусственного интеллекта генерировать тревожные и потенциально опасные изображения ставит серьезные вопросы об эффективности функций безопасности и о том, насколько легко их обмануть.
Инсайдерские разногласия в Google
В то же время компания Google сама борется с противоречиями, связанными с искусственным интеллектом.
Линвэй Динг, также известный как Леон Динг, бывший инженер-программист Google, был обвинен в Калифорнии по четырем пунктам, связанным с предполагаемой кражей коммерческих секретов в области искусственного интеллекта во время тайной работы на две китайские компании.
Гражданин Китая обвиняется в краже более 500 конфиденциальных файлов, связанных с инфраструктурой суперкомпьютерных центров обработки данных Google, в которых размещаются и обучаются крупные модели искусственного интеллекта.
Согласно обвинительному заключению, компания Google наняла Динга в 2019 году, а в мае 2022 года он начал загружать конфиденциальные данные из сети Google в свой личный аккаунт в Google.
Эти загрузки периодически продолжались в течение года, во время которого Динг провел несколько месяцев в Китае, работая в Beijing Rongshu Lianzhi Technology. Эта начинающая технологическая компания обратилась к нему и предложила ежемесячную зарплату в размере $14 800 за работу в качестве директора по технологиям (CTO).
Динг также якобы основал свою собственную компанию по производству искусственного интеллекта Shanghai Zhisuan Technology.
Генеральный прокурор США Меррик Гарланд заявил"Министерство юстиции не потерпит кражи искусственного интеллекта и других передовых технологий, которые могут поставить под угрозу нашу национальную безопасность". Директор ФБР Кристофер Врей добавил, что предполагаемые действия Динга "являются последней иллюстрацией того, на что идут компании в Китае, чтобы "украсть американские инновации".
Пока мир борется с трансформационным потенциалом искусственного интеллекта, инсайдерские противоречия в технологических компаниях грозят раздуть пламя несогласия.
Случаи с Microsoft и Google подчеркивают важность формирования культуры ответственных инноваций, включая доверие и прозрачность в самой компании.
ИИ - это технология, которая требует доверия, и технологические компании должны предоставлять больше гарантий. Это не всегда удавалось сделать.
FНапример, недавно группа из 100 с лишним экспертов в области технологий подписал письмо умоляя компании, занимающиеся разработкой искусственного интеллекта, открыть двери для независимого тестирования.
Они утверждали, что технологические компании слишком скрытно рассказывают о своих продуктах, за исключением тех случаев, когда их вынуждают к этому, как мы видели, когда Google отказалась от своей продукции. Модель генерации изображений Gemini за создание причудливых, исторически недостоверных образов.
Сейчас кажется, что исключительные темпы развития ИИ часто оставляют доверие и безопасность на задворках.