OpenAI недавно объявила о новом подходе к данным и искусственному интеллекту, подчеркнув важность ответственного подхода к разработке искусственного интеллекта и партнерства с создателями и владельцами контента.
Компания заявила, что будет создавать системы искусственного интеллекта, которые расширяют возможности для всех, уважая при этом выбор создателей и издателей.
"ИИ должен расширять возможности для всех. Преобразуя информацию новыми способами, системы ИИ помогают нам решать проблемы и самовыражаться". OpenAI заявил в своем недавняя запись в блоге.
В рамках этой стратегии компания разрабатывает инструмент под названием Media Manager, который позволит создателям и владельцам контента указывать, как они хотят, чтобы их работы были включены или исключены из исследований и тренировок машинного обучения.
"Наша цель - внедрить этот инструмент к 2025 году, и мы надеемся, что он станет стандартом для всей индустрии искусственного интеллекта". OpenAI заявил.
Информации о Media Manager и о том, как он может работать, очень мало. Похоже, что он будет представлять собой инструмент самообслуживания, с помощью которого создатели смогут определять и контролировать свои данные.
Некоторые предполагают, что OpenAI с помощью машинного обучения будет активно выявлять данные о создателях в своих массивах данных, что может иметь огромное значение.
UВ конечном счете, мы еще не знаем, как это будет работать и насколько эффективным окажется.
OpenAI Компания Media Manager объявила о создании платформы, которая позволит создателям отказаться от участия в генеративном обучении ИИ.
Положительные стороны:
- Я рад, что они занимаются этим вопросом.
- Они признают, что существующие исключения из правил недостаточно хороши.
- Если вы откажетесь, похоже, они будут использовать ML для...- Эд Ньютон-Рекс (@ednewtonrex) 7 мая 2024 года
Позитивный шаг со стороны OpenAI? Возможно, но если OpenAI искренне верит, что обучение моделей искусственного интеллекта на общедоступной информацииесли доступные данные подпадают под понятие "добросовестное использование", необходимость в опции отказа от использования отпадает.
Более того, если OpenAI может разработать инструменты для выявления материалов, защищенных авторским правом, то, вероятно, она могла бы использовать их для фильтрации своих данных с самого начала, а не требовать от создателей контента отказаться от их использования.
Кроме того, 2025 год дает им достаточно времени, чтобы создать колоссальную базу данных об авторских работах людей без их разрешения.
Дальше все зависит от тонкой настройки. OpenAI будет продолжать приобретать данные из таких источников, как Financial Times и Le Monde, чтобы поддерживать свои модели в актуальном состоянии.
Это, по крайней мере, служит доказательством того, что давление на OpenAI и других компаний, занимающихся разработкой искусственного интеллекта, более этично обращаться с данными.
Европейская группа по защите конфиденциальности Noyb недавно внесла свой вклад в дело о судебных исках. начали судебный процесс на OpenAI, утверждая, что ChatGPT постоянно генерирует недостоверную информацию о людях и не исправляет ее.
OpenAIОтвет был характерным: "Возможно, вы правы, но мы не можем или не хотим ничего с этим делать".