Утечка данных OpenAI: что мы знаем, риски и уроки на будущее

7 июля 2024 года

  • В прошлом году в OpenAI произошла утечка данных, но об этом стало известно только недавно.
  • Компании, занимающиеся разработкой искусственного интеллекта, хранят огромные объемы конфиденциальных и очень ценных данных
  • Эксперты опасаются, что это делает их открытыми для атак со стороны иностранных субъектов угроз.
Безопасность ИИ

Взлом системы безопасности в OpenAI показал, что компании, занимающиеся разработкой искусственного интеллекта, являются выгодными целями для хакеров. 

Нарушение, которое произошло в начале прошлого года и было недавно сообщил по данным New York Times, хакер получил доступ к внутренним системам обмена сообщениями компании. 

Хакер выудил подробности из обсуждений сотрудниками новейших технологий OpenAI. Вот что мы знаем:

  • Взлом произошел в начале прошлого года, и хакер получил доступ к внутренним системам обмена сообщениями OpenAI.
  • Хакер проник на онлайн-форум, где сотрудники OpenAI открыто обсуждали новейшие технологии и разработки компании в области искусственного интеллекта.
  • В результате взлома стали известны результаты внутренних обсуждений между исследователями и сотрудниками, однако код, лежащий в основе систем искусственного интеллекта OpenAI, или данные клиентов не были скомпрометированы.
  • Руководители OpenAI рассказали о случившемся сотрудникам во время общего собрания в офисе компании в Сан-Франциско в апреле 2023 года и сообщили об этом совету директоров.
  • Компания решила не раскрывать информацию о взломе публично, поскольку считает, что никакая информация о клиентах или партнерах не была похищена, а хакер был частным лицом, не имеющим связей с иностранным правительством.
  • Леопольд Ашенбреннер, бывший руководитель технической программы OpenAI, после взлома направил совету директоров компании служебную записку, в которой утверждал, что OpenAI делает недостаточно для того, чтобы иностранные правительства не смогли похитить ее секреты.
  • Ашенбреннер, который утверждает, что его уволили за утечку информации за пределы компании, заявил в недавнем подкасте, что меры безопасности OpenAI недостаточны для защиты от кражи ключевых секретов иностранными игроками.
  • OpenAI оспаривает оценку Ашенбреннером инцидента и своих мер безопасности, заявляя, что его опасения не привели к увольнению из компании.

Кто такой Леопольд Ашенбреннер?

Леопольд Ашенбреннер - бывший исследователь безопасности в OpenAI из команды компании по сверхвыравниванию.

Команда superalignment, сосредоточенная на долгосрочной безопасности передового искусственного интеллекта общего назначения (AGI), недавно развалился когда компанию покинули несколько высокопоставленных исследователей.

Среди них был соучредитель OpenAI Илья Суцкевер, который недавно создал новую компанию под названием Safe Superintelligence Inc.

В прошлом году Ашенбреннер написал внутреннюю записку, в которой подробно изложил свои опасения по поводу методов обеспечения безопасности OpenAI, которые он назвал "вопиюще недостаточными".

Он распространил памятку среди авторитетных экспертов за пределами компании. Несколько недель спустя в OpenAI произошла утечка данных, и он поделился обновленной версией с членами совета директоров. Вскоре после этого он был уволен из OpenAI.

"Что также может быть полезным, так это вопросы, которые они задавали мне при увольнении... Вопросы касались моих взглядов на прогресс ИИ, на AGI, на надлежащий уровень безопасности AGI, на то, должно ли правительство участвовать в AGI, был ли я и команда superalignment лояльны к компании, и чем я занимался во время заседаний совета OpenAI", - рассказал Ашенбреннер в подкасте.

"Другой пример - когда я поднимал вопросы безопасности, они говорили мне, что безопасность - наш главный приоритет", - заявил Ашенбреннер. "Неизменно, когда приходило время вкладывать серьезные ресурсы или идти на компромиссы, чтобы принять основные меры, безопасность не ставилась во главу угла".

OpenAI оспаривает характеристику инцидента, данную Ашенбреннером, и свои меры безопасности. "Мы ценим озабоченность, которую Леопольд высказывал во время работы в OpenAI, и это не привело к его увольнению", - ответила Лиз Буржуа, представительница OpenAI.

"Хотя мы разделяем его стремление создать безопасную A.G.I., мы не согласны со многими заявлениями, которые он сделал о нашей работе".

Компании, работающие в сфере искусственного интеллекта, становятся объектом хакерских атак

Компании, занимающиеся разработкой искусственного интеллекта, несомненно, являются привлекательной мишенью для хакеров из-за колоссального объема ценных данных, ключи к которым они хранят. 

Эти данные делятся на три основные категории: высококачественные обучающие наборы данных, записи взаимодействия с пользователями и конфиденциальная информация о клиентах.

Просто подумайте о ценности любой из этих категорий.

Во-первых, учебные данные - это новая нефть. Хотя некоторые данные относительно легко получить из общедоступных баз данных, таких как ЛАЙОНЕго нужно проверять, чистить и дополнять.

Это очень трудоемкий процесс. Компании, занимающиеся разработкой искусственного интеллекта огромные контракты с компаниями, предоставляющими такие услуги в Африке, Азии и Южной Америке.

Кроме того, необходимо учитывать данные, которые ИИ-компании собирают у пользователей. 

Это особенно ценно для хакеров, если учесть финансовую информацию, код и другие виды интеллектуальной собственности, которыми компании могут делиться с инструментами искусственного интеллекта. 

Недавний отчет по кибербезопасности обнаружили, что более половины взаимодействий людей с чат-ботами, такими как ChatGPT, содержат конфиденциальную, лично идентифицируемую информацию (PII). Еще одно исследование показало, что 11% сотрудников делиться конфиденциальной деловой информацией с ChatGPT. 

Кроме того, по мере того как все больше компаний внедряют инструменты искусственного интеллекта в свою деятельность, им часто приходится предоставлять доступ к своим внутренним базам данных, что еще больше повышает риски безопасности. 

В общем, на плечи компаний, занимающихся разработкой искусственного интеллекта, ложится непосильная ноша. И поскольку Гонка вооружений ИИ усиливается, а такие страны, как Китай, быстро сокращают разрыв с США, и поверхность угроз будет только расширяться. 

Помимо этих сообщений от OpenAI, мы пока не видели доказательств каких-либо громких взломов, но, вероятно, это лишь вопрос времени. 

Присоединяйтесь к будущему


ПОДПИСАТЬСЯ СЕГОДНЯ

Четко, лаконично, всесторонне. Получите представление о развитии искусственного интеллекта с помощью DailyAI

Сэм Джинс

Сэм - писатель в области науки и техники, работавший в различных AI-стартапах. Когда он не пишет, его можно найти за чтением медицинских журналов или копанием в коробках с виниловыми пластинками.

×

ЭКСКЛЮЗИВНЫЙ БЕСПЛАТНЫЙ PDF
Будьте впереди с DailyAI

Подпишитесь на нашу еженедельную рассылку и получите эксклюзивный доступ к последней электронной книге DailyAI: "Освоение инструментов искусственного интеллекта: Ваше руководство по повышению производительности в 2024 году".

* Подписываясь на нашу рассылку, вы принимаете наши Политика конфиденциальности и наш Условия и положения