Пользовательский чатбот NVIDIA работает локально на ПК с RTX AI

14 февраля 2024 года

NVIDIA выпустила Chat with RTX в качестве демонстрации того, как чат-боты с искусственным интеллектом могут работать локально на ПК с Windows с помощью графических процессоров RTX.

Стандартный подход к использованию чатбота с искусственным интеллектом - это использование веб-платформы, такой как ChatGPT, или выполнение запросов через API, при этом выводы делаются на серверах облачных вычислений. Недостатками такого подхода являются затраты, задержки и проблемы с конфиденциальностью при передаче личных или корпоративных данных туда и обратно.

RTX от NVIDIA Линейка графических процессоров позволяет запускать LLM локально на компьютере с Windows, даже если вы не подключены к Интернету.

Chat with RTX позволяет пользователям создавать персонализированные чатботы, используя либо Мистраль или Ллама 2. В нем используется генерация с расширением поиска (RAG) и оптимизация выводов TensorRT-LLM от NVIDIA.

Вы можете направить Chat with RTX в папку на вашем компьютере, а затем задать ему вопросы, связанные с файлами в этой папке. Программа поддерживает различные форматы файлов, включая .txt, .pdf, .doc/.docx и .xml.

Поскольку LLM анализирует локально хранящиеся файлы, а выводы делаются на вашей машине, он работает очень быстро, и ни одна из ваших данных не передается в потенциально незащищенные сети.

Вы также можете задать ему URL-адрес видеоролика на YouTube и задать вопросы о нем. Для этого требуется доступ в интернет, но это отличный способ получить ответы без необходимости смотреть длинное видео.

Вы можете скачать Чат с RTX бесплатно, но для этого вам потребуется Windows 10 или 11 на вашем компьютере с графическим процессором GeForce RTX 30 Series или выше, с минимум 8 ГБ VRAM.

Чат с RTX - это скорее демо-версия, чем готовый продукт. Он немного глючит и не запоминает контекст, поэтому вы не можете задавать ему последующие вопросы. Но это хороший пример того, как мы будем использовать LLM в будущем.

Использование ИИ-чатбота на локальном уровне с нулевыми затратами на вызовы API и очень малой задержкой - это, скорее всего, тот способ, которым большинство пользователей в конечном итоге будут взаимодействовать с LLM. Подход с открытым исходным кодом, которого придерживаются такие компании, как Meta, приведет к тому, что ИИ на устройствах будет способствовать распространению их бесплатных моделей, а не проприетарных, как GPT.

Тем не менее, пользователям мобильных устройств и ноутбуков придется подождать еще некоторое время, прежде чем вычислительная мощь графического процессора RTX сможет поместиться в более компактные устройства.

Присоединяйтесь к будущему


ПОДПИСАТЬСЯ СЕГОДНЯ

Четко, лаконично, всесторонне. Получите представление о развитии искусственного интеллекта с помощью DailyAI

Юджин ван дер Ватт

Юджин - выходец из электронной инженерии и обожает все, что связано с техникой. Когда он отдыхает от чтения новостей об искусственном интеллекте, вы можете найти его за столом для игры в снукер.

×

ЭКСКЛЮЗИВНЫЙ БЕСПЛАТНЫЙ PDF
Будьте впереди с DailyAI

Подпишитесь на нашу еженедельную рассылку и получите эксклюзивный доступ к последней электронной книге DailyAI: "Освоение инструментов искусственного интеллекта: Ваше руководство по повышению производительности в 2024 году".

* Подписываясь на нашу рассылку, вы принимаете наши Политика конфиденциальности и наш Условия и положения