Материнская компания Google, Alphabet, предостерегает сотрудников от использования чат-ботов, в том числе своего собственного Барда, из-за опасений по поводу защиты конфиденциальных данных. Ссылаясь на давнюю политику защиты данных, компания предостерегла сотрудников от ввода частной информации в чат-боты ИИ.
Чат-боты, такие как Bard и ChatGPT, используют генеративный искусственный интеллект для ведения разговоров, имитирующих взаимодействие с человеком, и отвечают на запросы пользователей.
В рамках процесса обучения человеческие рецензенты могут читать эти взаимодействия. Исследователи обнаружили что модели искусственного интеллекта, встроенные в эти чат-боты, способны воссоздавать данные, полученные в процессе обучения, что потенциально создает риск утечки.
Кроме того, Alphabet проинструктировала своих разработчиков воздерживаться от прямого использования генерируемого чатботом компьютерного кода. Bard может дать рекомендации по кодированию, но компания понимает необходимость осторожности и открытости в отношении ограничений своей технологии.
Поскольку Google конкурирует с сервисом ChatGPT, поддерживаемым OpenAI и Microsoft, эта осторожная стратегия направлена на минимизацию возможного ущерба для компании Google.
Подобные меры безопасности были приняты и другими компаниями, включая Samsung, Amazon и Deutsche Bank, что свидетельствует о повышении планки корпоративной безопасности.
Опасения вызывает возможность распространения в обсуждениях чатботов неверной информации, частной информации или даже материалов, защищенных авторским правом.
Некоторые компании создали программные решения для решения этих проблем. Например, Cloudflare предоставляет возможность помечать и ограничивать передачу данных за пределы сети, защищая конфиденциальные данные.
Несмотря на то, что они дороже, Google и Microsoft также предоставляют разговорные инструменты для коммерческих клиентов, которые не включают свои данные в модели ИИ с открытым исходным кодом. Хотя у пользователей есть возможность удалить их, Bard и ChatGPT по умолчанию сохраняют истории разговоров пользователей.
Юсуф Мехди, директор по маркетингу потребительского подразделения Microsoft, сказал: "Предприятиям имеет смысл избегать использования чат-ботов, доступных широкой публике, в деловых целях. По сравнению с бесплатным чат-ботом Bing, Microsoft устанавливает более жесткие правила для своего коммерческого программного обеспечения". Другой руководитель признался, что у него есть личные ограничения на использование таких программ, несмотря на молчание Microsoft на тему общего запрета на использование служебной информации в общедоступных программах искусственного интеллекта".
Меры безопасности, принятые Alphabet и другими компаниями, подчеркивают необходимость гарантировать защиту частных данных при использовании чат-ботов с искусственным интеллектом. Предприятия могут снизить риски и обеспечить конфиденциальность данных, установив правила и технические решения.