The Guardian присоединилась к растущему списку сайтов, которые заблокировали GPTBot компании OpenAI от сканирования своих сайтов.
Британская ежедневная газета объявила о своем решении на своем сайте в прошлую пятницу и присоединился к CNN, Reuters, Washington Post, Bloomberg и New York Times в блокировка GPTBot. Хотя в нем не было дано полного объяснения причин такого решения, в нем были упомянуты некоторые общие опасения индустрии.
Он сослался на продолжающуюся судебные иски по авторским правам и призывы британских книгоиздателей защитить свои работы от использования искусственным интеллектом.
Guardian признала, что инструменты генеративного ИИ, такие как ChatGPT, делают впечатляющие вещи, но некоторые семантические обороты в анонсе свидетельствуют о менее восторженном отношении к тому, как компании ИИ ведут свой бизнес.
В заявлении отмечается, что ChatGPT обучалась на огромном количестве данных, "собранных" из Интернета, и что компания приняла меры, чтобы не использовать программное обеспечение, которое "собирает" ее данные.
Она не стала прямо кричать "Остановите вора!", но послание довольно четкое.
Представитель издателя Guardian и Observer заявил: "Сокращение интеллектуальной собственности с сайта Guardian в коммерческих целях противоречит нашим условиям обслуживания и всегда было таковым".
В знак того, что в будущем компания может разрешить соскабливание данных, представитель заявил: "Команда The Guardian по коммерческому лицензированию имеет множество взаимовыгодных коммерческих отношений с разработчиками по всему миру и с нетерпением ждет развития таких отношений в будущем".
Интересно, что The Guardian также отметила опасения по поводу потенциала генеративного ИИ для создания дезинформации. Она не объяснила, как эта обеспокоенность связана с ее решением заблокировать GPTBot, но для издателя новостей это очевидная область для беспокойства.
Если не принимать во внимание вопросы этики и авторского права, возможно, серверы сайта The Guardian столкнулись с теми же проблемами, что и серверы X.
Ранее в этом году Элон Маск заявил, что значительная часть нагрузки, которую испытывали серверы X, исходила от множество ботов-скреперов с искусственным интеллектом. Он не блокирует их напрямую, а также намерен использовать публичные твиты для обучения своей модели xAI.
Когда бот искусственного интеллекта посещает сайт и сталкивается с "блокирующим" его файлом robot.txt, он не скребет сайт из вежливости, а не потому, что не может этого сделать.
Когда вопросы авторского права будут урегулированы в законодательстве, интересно, как долго вежливость будет преобладать над ненасытным аппетитом ИИ к данным.