OpenAI kündigte kürzlich einen neuen Ansatz für Daten und KI an und betonte die Bedeutung einer verantwortungsvollen KI-Entwicklung und von Partnerschaften mit Urhebern und Eigentümern von Inhalten.
Das Unternehmen hat sich zum Ziel gesetzt, KI-Systeme zu entwickeln, die die Möglichkeiten für alle erweitern und gleichzeitig die Entscheidungen von Urhebern und Verlegern respektieren.
"KI sollte die Möglichkeiten für alle erweitern. Indem sie Informationen auf neue Weise umwandeln, helfen uns KI-Systeme, Probleme zu lösen und uns auszudrücken". OpenAI erklärte in seinem aktueller Blogeintrag.
Im Rahmen dieser Strategie entwickelt das Unternehmen ein Tool namens Media Manager, mit dem Urheber und Eigentümer von Inhalten festlegen können, wie ihre Werke in die Forschung und das Training für maschinelles Lernen einbezogen oder ausgeschlossen werden sollen.
"Unser Ziel ist es, das Tool bis 2025 zu implementieren, und wir hoffen, dass es in der gesamten KI-Branche einen Standard setzen wird. OpenAI erklärt.
Es gibt nur wenige Informationen über den Media Manager und wie er funktionieren könnte. Es sieht so aus, als ob es sich um ein Selbstbedienungs-Tool handeln wird, mit dem Ersteller ihre Daten identifizieren und kontrollieren können.
Einige spekulieren, ob OpenAI wird mithilfe von maschinellem Lernen aktiv die Daten von Urhebern innerhalb ihres Datensatzes identifizieren - und das könnte enorm sein.
ULetztendlich wissen wir noch nicht, wie es funktionieren wird und wie wirksam es sein wird.
OpenAI kündigte den Media Manager an, eine geplante Plattform, die es Urhebern ermöglicht, sich für oder gegen generatives KI-Training zu entscheiden.
Positiv:
- Ich freue mich, dass sie sich mit diesem Thema befassen.
- Sie räumen ein, dass die bestehenden Opt-outs nicht ausreichen
- Wenn Sie sich abmelden, klingt es so, als würden sie ML verwenden, um...- Ed Newton-Rex (@ednewtonrex) 7. Mai 2024
Ein positiver Schritt von OpenAI? Möglicherweise, aber wenn OpenAI glaubt wirklich, dass das Training von KI-Modellen auf öffentlich zugänglichenfähigen Daten unter die faire Nutzung fallen, wäre eine Opt-out-Option nicht erforderlich.
Außerdem, wenn OpenAI Werkzeuge zur Identifizierung von urheberrechtlich geschütztem Material entwickeln kann, könnte sie diese wahrscheinlich nutzen, um ihre Datenauslese von Anfang an zu filtern, anstatt von den Urhebern der Inhalte zu verlangen, sich dagegen zu entscheiden.
Außerdem gibt ihnen das Jahr 2025 genug Zeit, um einen riesigen Datensatz mit urheberrechtlich geschützten Werken von Menschen ohne deren Zustimmung aufzubauen.
Von da an geht es in erster Linie um die Feinabstimmung. OpenAI wird weiterhin Daten von Quellen wie die Financial Times und Le Monde, um ihre Modelle auf dem neuesten Stand zu halten.
Dies ist zumindest ein Beweis dafür, dass es Druck auf OpenAI und andere KI-Unternehmen zu einem ethischeren Umgang mit Daten.
Als Beitrag zu einem Schreibtisch voller Klagen hat die europäische Datenschutzgruppe Noyb kürzlich rechtliche Schritte eingeleitet unter OpenAIund behauptet, dass ChatGPT wiederholt ungenaue Informationen über Personen erstellt und diese nicht korrigiert.
OpenAIDie Antwort der Kommission war bezeichnend: "Sie mögen Recht haben, aber wir können oder wollen nichts dagegen tun.