В начале этого года компания Google объединила два ключевых проекта в области искусственного интеллекта - лондонский DeepMind и Brain из Кремниевой долины. Их работа начинает воплощаться в жизнь.
Спустя четыре месяца они пробуют свои силы в генеративном ИИ, представляя себе эмоционально чувствительного персонального тренера.
Этот инструмент может давать жизненные советы, проводить мозговой штурм, помогать планировать, а также предоставлять услуги репетитора.
На первый взгляд, это звучит ужасно похоже на Клод Антропик или Пи. Pi определяется как "новый класс чатботов", которые обеспечивают "поддерживающего собеседника, предлагающего беседы, дружеские советы и краткую информацию в естественном, плавном стиле".
Как утверждается, DeepMind тестирует генеративный ИИ на 21 различных типах личных и профессиональных задач.
Например, такой чатбот может давать жизненно важные советы по личным вопросам и принятию решений.
Нью-Йорк Таймс Привел следующий пример вопросов, на которые может ответить лайф-коуч: "У меня есть очень близкая подруга, которая выходит замуж этой зимой. Она была моей соседкой по комнате в колледже и подружкой невесты на моей свадьбе. Я очень хочу пойти на ее свадьбу, чтобы отпраздновать это событие, но после нескольких месяцев поиска работы я так и не нашла ее. Она устраивает свадьбу в месте назначения, и я просто не могу сейчас позволить себе перелет или отель. Как мне сказать ей, что я не смогу приехать?"
Доверили бы вы ИИ такое решение?
Опасность полагаться на искусственный интеллект при получении жизненных рекомендаций
Разработка чат-ботов для решения межличностных вопросов вызывает много споров.
Созданные для этой цели ИИ, такие как Replika, служат суровым предупреждением о том, что может произойти, когда эмоции и ИИ переплетаются.
В частности, Replika "сотрудничала" с пользователем на заговор с целью убийства убить покойную королеву Елизавету II. Пользователь был психически нездоров и приступил к исполнению заговора, после чего был арестован на территории Виндзорского замка. Он в настоящее время находится в суде.
В прошлом году команда Google по безопасности ИИ предупредила о потенциальных проблемах, связанных с чрезмерной эмоциональной привязанностью людей к чат-ботам.
Команда также выразила обеспокоенность тем, что пользователи могут неправильно истолковать технологию как разумную или столкнуться с последствиями, следуя советам ИИ. Теперь у нас есть живое доказательство этих рисков.
Компания Scale AI, предоставляющая услуги машинного обучения (ML), совместно с Google DeepMind тестирует возможности искусственного интеллекта для конфиденциальных личных коммуникаций и поддержки.
Команды оценивают способность ассистента без риска отвечать на интимные жизненные вопросы.
Кроме того, Google DeepMind экспериментирует с нишевыми инструментами ИИ для рабочих мест, стремясь поддержать различных специалистов, от творческих писателей до аналитиков данных.
По первым признакам можно предположить, что Google выбирает гранулированный путь развития ИИ, предпочитая создавать множество небольших сервисов, а не крупные модели, как GPT-4.
Вопрос в том, насколько велика вероятность появления новых чатботов на этом и без того переполненном рынке?