Недавно запущенная функция Google "ИИ-обзор", которая призвана предоставлять пользователям резюме результатов поиска, созданные искусственным интеллектом, подверглась критике за предоставление вводящих в заблуждение, неточных, а иногда и откровенно странных ответов.
Эта функция, которая сейчас распространяется на миллиарды людей, после того как Google подтвердила ее на недавней Конференция разработчиков Google I/OИИ стал предметом всеобщего высмеивания и беспокойства в социальных сетях, поскольку пользователи приводили примеры ошибок ИИ.
Это был лишь вопрос времени. Человеческое любопытство так или иначе, одерживает верх над ограждениями ИИ.
Журналисты и обычные пользователи обратили внимание на X и другие платформы, чтобы подчеркнуть случаи, когда функция AI Overview цитировала сомнительные источники, такие как сатирические статьи из The Onion или шуточные посты на Reddit, как если бы они соответствовали действительности.
В одном из наиболее тревожных случаев компьютерный ученый Мелани Митчелл продемонстрировала пример того, как функция отображает теорию заговора, предполагающую, что бывший президент Барак Обама - мусульманин, очевидно, в результате того, что ИИ неправильно интерпретировал информацию, полученную с исследовательской платформы Oxford University Press.
Среди других примеров ошибок ИИ - плагиат текста из блогов без удаления личных ссылок на детей авторов, непризнание существования африканских стран, начинающихся на букву "К", и даже предположение, что питоны - млекопитающие.
Некоторые из этих неточных результатов, например теория заговора Обамы или предложение намазать пиццу клеем, больше не отображаются в резюме ИИ, а вместо этого показывают статьи, в которых говорится о фактических проблемах ИИ.
Однако сейчас люди задаются вопросом, сможет ли AI Overview когда-либо правильно выполнять свои функции.
Компания Google уже признала эту проблему: представитель компании сообщил The Verge что ошибки возникали в "как правило, очень редких запросах и не являются репрезентативными для большинства людей".
Однако точная причина проблемы остается неясной. Возможно, это связано со склонностью ИИ к "галлюцинациям".
Или это может быть связано с источниками, которые Google использует для создания резюме, например, сатирические статьи или посты троллей в социальных сетях.
В интервью The Verge генеральный директор Google Сундар Пичаи затронул тему галлюцинаций ИИ, признав, что они являются "нерешенной проблемой", но не назвав сроки ее решения.
Это не первый случай, когда Google сталкивается с критикой своих продуктов искусственного интеллекта: ранее в этом году ИИ Gemini, конкурент OpenAI ChatGPT и DALL-E, попал под огонь за создание исторически неточных изображений, включая расово разнообразных нацистских офицеров, белых женщин-президентов и женщин-пап.
В ответ на это компания Google позже принесла публичные извинения и временно приостановлено Способность Близнецов генерировать образы людей.
Обзор ИИ также подвергся критике со стороны владельцев сайтов и маркетингового сообщества, поскольку это грозит тем, что пользователи перестанут взаимодействовать с традиционными результатами поисковых систем, а будут просто полагаться на сниппеты, сгенерированные ИИ.