Взлом системы безопасности в OpenAI показал, что компании, занимающиеся разработкой искусственного интеллекта, являются выгодными целями для хакеров.
Нарушение, которое произошло в начале прошлого года и было недавно сообщил по данным New York Times, хакер получил доступ к внутренним системам обмена сообщениями компании.
Хакер выудил подробности из обсуждений сотрудниками новейших технологий OpenAI. Вот что мы знаем:
- Взлом произошел в начале прошлого года, и хакер получил доступ к внутренним системам обмена сообщениями OpenAI.
- Хакер проник на онлайн-форум, где сотрудники OpenAI открыто обсуждали новейшие технологии и разработки компании в области искусственного интеллекта.
- В результате взлома стали известны результаты внутренних обсуждений между исследователями и сотрудниками, однако код, лежащий в основе систем искусственного интеллекта OpenAI, или данные клиентов не были скомпрометированы.
- Руководители OpenAI рассказали о случившемся сотрудникам во время общего собрания в офисе компании в Сан-Франциско в апреле 2023 года и сообщили об этом совету директоров.
- Компания решила не раскрывать информацию о взломе публично, поскольку считает, что никакая информация о клиентах или партнерах не была похищена, а хакер был частным лицом, не имеющим связей с иностранным правительством.
- Леопольд Ашенбреннер, бывший руководитель технической программы OpenAI, после взлома направил совету директоров компании служебную записку, в которой утверждал, что OpenAI делает недостаточно для того, чтобы иностранные правительства не смогли похитить ее секреты.
- Ашенбреннер, который утверждает, что его уволили за утечку информации за пределы компании, заявил в недавнем подкасте, что меры безопасности OpenAI недостаточны для защиты от кражи ключевых секретов иностранными игроками.
- OpenAI оспаривает оценку Ашенбреннером инцидента и своих мер безопасности, заявляя, что его опасения не привели к увольнению из компании.
Кто такой Леопольд Ашенбреннер?
Леопольд Ашенбреннер - бывший исследователь безопасности в OpenAI из команды компании по сверхвыравниванию.
Команда superalignment, сосредоточенная на долгосрочной безопасности передового искусственного интеллекта общего назначения (AGI), недавно развалился когда компанию покинули несколько высокопоставленных исследователей.
Среди них был соучредитель OpenAI Илья Суцкевер, который недавно создал новую компанию под названием Safe Superintelligence Inc.
В прошлом году Ашенбреннер написал внутреннюю записку, в которой подробно изложил свои опасения по поводу методов обеспечения безопасности OpenAI, которые он назвал "вопиюще недостаточными".
Он распространил памятку среди авторитетных экспертов за пределами компании. Несколько недель спустя в OpenAI произошла утечка данных, и он поделился обновленной версией с членами совета директоров. Вскоре после этого он был уволен из OpenAI.
"Что также может быть полезным, так это вопросы, которые они задавали мне при увольнении... Вопросы касались моих взглядов на прогресс ИИ, на AGI, на надлежащий уровень безопасности AGI, на то, должно ли правительство участвовать в AGI, был ли я и команда superalignment лояльны к компании, и чем я занимался во время заседаний совета OpenAI", - рассказал Ашенбреннер в подкасте.
"Другой пример - когда я поднимал вопросы безопасности, они говорили мне, что безопасность - наш главный приоритет", - заявил Ашенбреннер. "Неизменно, когда приходило время вкладывать серьезные ресурсы или идти на компромиссы, чтобы принять основные меры, безопасность не ставилась во главу угла".
OpenAI оспаривает характеристику инцидента, данную Ашенбреннером, и свои меры безопасности. "Мы ценим озабоченность, которую Леопольд высказывал во время работы в OpenAI, и это не привело к его увольнению", - ответила Лиз Буржуа, представительница OpenAI.
"Хотя мы разделяем его стремление создать безопасную A.G.I., мы не согласны со многими заявлениями, которые он сделал о нашей работе".
Компании, работающие в сфере искусственного интеллекта, становятся объектом хакерских атак
Компании, занимающиеся разработкой искусственного интеллекта, несомненно, являются привлекательной мишенью для хакеров из-за колоссального объема ценных данных, ключи к которым они хранят.
Эти данные делятся на три основные категории: высококачественные обучающие наборы данных, записи взаимодействия с пользователями и конфиденциальная информация о клиентах.
Просто подумайте о ценности любой из этих категорий.
Во-первых, учебные данные - это новая нефть. Хотя некоторые данные относительно легко получить из общедоступных баз данных, таких как ЛАЙОНЕго нужно проверять, чистить и дополнять.
Это очень трудоемкий процесс. Компании, занимающиеся разработкой искусственного интеллекта огромные контракты с компаниями, предоставляющими такие услуги в Африке, Азии и Южной Америке.
Кроме того, необходимо учитывать данные, которые ИИ-компании собирают у пользователей.
Это особенно ценно для хакеров, если учесть финансовую информацию, код и другие виды интеллектуальной собственности, которыми компании могут делиться с инструментами искусственного интеллекта.
Недавний отчет по кибербезопасности обнаружили, что более половины взаимодействий людей с чат-ботами, такими как ChatGPT, содержат конфиденциальную, лично идентифицируемую информацию (PII). Еще одно исследование показало, что 11% сотрудников делиться конфиденциальной деловой информацией с ChatGPT.
Кроме того, по мере того как все больше компаний внедряют инструменты искусственного интеллекта в свою деятельность, им часто приходится предоставлять доступ к своим внутренним базам данных, что еще больше повышает риски безопасности.
В общем, на плечи компаний, занимающихся разработкой искусственного интеллекта, ложится непосильная ноша. И поскольку Гонка вооружений ИИ усиливается, а такие страны, как Китай, быстро сокращают разрыв с США, и поверхность угроз будет только расширяться.
Помимо этих сообщений от OpenAI, мы пока не видели доказательств каких-либо громких взломов, но, вероятно, это лишь вопрос времени.