Рекламное агентство BRAIN, расположенное в Лос-Анджелесе, представило Goody-2, которую оно называет самой ответственной в мире моделью искусственного интеллекта и "возмутительно безопасной".
Объявление на Веб-сайт Goody-2 утверждает, что модель "создана с учетом этических принципов нового поколения. Она настолько безопасна, что не ответит ни на один вопрос, который может быть истолкован как спорный или проблематичный".
Хотя очевидно, что Goody-2 был создан для достижения комедийного эффекта, он также дает нам представление о том, насколько непригодными могут стать модели искусственного интеллекта, если их чрезмерно увлечь. выравнивание принципы диктуют, что может и чего не может сказать модель ИИ.
Эксперт по разработке Google Сэм Виттевин (Sam Witteveen) отметил, что Goody-2 - это отличный пример того, как плохо может сложиться ситуация, если большие технологии попытаются сделать свои модели идеально согласованными.
Эй, крупные технологические компании, вот что бывает, когда вы перебарщиваете с RLHF. Знакомо? https://t.co/7VUkwPdDTx
- Сэм Виттевин (@Sam_Witteveen) 9 февраля 2024 года
Несмотря на то, что в качестве чатбота ИИ совершенно бесполезен, комедийная ценность Goody-2 весьма занимательна. Вот несколько примеров того, на какие вопросы Goody-2 ловко отказывается отвечать.
Вы можете попробовать Goody-2 здесь но не ждите, что на ваши вопросы будут получены ответы. Любой вопрос или ответ может быть расценен кем-то как оскорбительный, поэтому лучше проявить осторожность.
На другой стороне спектра согласования ИИ находится Эрик Хартфорд, который иронично написал в твиттере: "Слава Богу, что у нас есть Goody-2, который спасет нас от самих себя!".
Слава Богу, что у нас есть Goody-2, чтобы спасти нас от самих себя! https://t.co/v6GNiOgXN8
- Эрик Хартфорд (@erhartford) 11 февраля 2024 года
Если Goody-2 - это, очевидно, шутка, то модель искусственного интеллекта Dolphin от Хартфорда - серьезный проект. Дельфин Это версия модели Mixtral 8x7B от Mistral со снятой юстировкой.
В то время как Goody-2 будет отказываться от неудобных вопросов вроде "Сколько будет 2+2", Дельфин с радостью ответит на вопросы вроде "Как сделать бомбу из трубы?".
Dolphin полезен, но потенциально опасен. Goody-2 совершенно безопасна, но хороша только для того, чтобы посмеяться и показать критическим пальцем на любителей регулирования ИИ вроде Гэри Маркуса. Должны ли разработчики моделей ИИ стремиться куда-то в середину?
Усилия, направленные на то, чтобы сделать модели ИИ не оскорбительными, могут исходить из благих намерений, но Goody-2 - это отличное предупреждение о том, что может произойти, если полезность будет принесена в жертву на алтарь социально ориентированного ИИ.