In einer schriftlichen Stellungnahme an das britische Oberhaus erklärte OpenAI, dass die Entwicklung von KI-Tools ohne Verwendung von urheberrechtlich geschütztem Material "unmöglich" sei.
Dies geschieht inmitten einer sich verschärfenden Debatte über die Interaktion von Urheberrecht und KI. Autoren, Schriftsteller und Medien wie die New York Times haben Klagen gegen OpenAI, Microsoft, Stability AI, Anthropic, Google und Midjourney eingereicht, um nur einige zu nennen.
Große Sprachmodelle (LLMs) wie ChatGPT und Bildgeneratoren wie Midjourney, das vor kurzem für Schlagzeilen sorgte, weil es ein Datenbank mit 16.000 Künstlern für die Modellschulung auf umfangreiche urheberrechtlich geschützte Daten zurückgreifen.
Urheberrechtsdaten bilden die Hauptstütze des KI-Trainingsmaterials, da sie reichlich vorhanden sind, ein breites Spektrum an menschlicher Kreativität abdecken und leicht aus dem Internet abgerufen werden können.
KI-Unternehmen argumentieren, dass diese Daten für ihre Modellschulung "fair use" sind, aber viele andere sind anderer Meinung.
In einer Antwort an den Ausschuss für Kommunikation und Digitales des House of Lords betonte OpenAI kürzlich seinen Bedarf an urheberrechtlich geschütztem Material für LLM-Ausbildungsprogramme wie GPT-4.
OpenAI erklärte: "Da das Urheberrecht heute praktisch jede Art von menschlicher Äußerung abdeckt - einschließlich Blogposts, Fotos, Forenbeiträge, Fetzen von Softwarecode und Regierungsdokumente - wäre es unmöglich, die führenden KI-Modelle von heute zu trainieren, ohne urheberrechtlich geschütztes Material zu verwenden."
Das Unternehmen argumentierte weiter, dass die Beschränkung des Schulungsmaterials auf öffentlich zugängliche Quellen zu schlechten KI-Systemen führen würde.
"Die Beschränkung der Trainingsdaten auf gemeinfreie Bücher und Zeichnungen, die vor mehr als einem Jahrhundert entstanden sind, könnte ein interessantes Experiment ergeben, würde aber keine KI-Systeme hervorbringen, die den Bedürfnissen der heutigen Bürger entsprechen", so OpenAI weiter.
Sie können den gesamten Text lesen Einreichung schriftlicher Beweise hierdie auch die künftige Entwicklung der KI, Katastrophenrisiken, für die OpenAI mit dem Frontier Model Forum und dem Preparedness-Team wirbt, und die Regulierung behandelt.
Die Öffentlichkeit reagiert
Die Reaktionen auf diese Erklärungen waren nicht gerade wohlwollend.
Dr. Gary Marcus zum Beispiel, eine prominente Stimme in der Branche, sagte, dass sich KI-Modelle dadurch im Wesentlichen selbst als Mittel zur Monetarisierung gestohlener urheberrechtlich geschützter Werke kennzeichnen.
In der Tat scheint es fast ein Freudscher Versprecher von OpenAI zu sein, zuzugeben, dass ihr Geschäftsmodell ohne Manipulation des Gesetzes nicht funktionieren kann.
Es ist ein spürbares Gefühl der Ungerechtigkeit, dass so wenige in den oberen Rängen des Silicon Valley von der Arbeit so vieler profitieren.
In der Erklärung von OpenAI wird auch behauptet, dass sie "die Bedürfnisse" der heutigen "Bürger" verstehen. Dies zeigt eine wachsende Kluft zwischen der Sichtweise von Big Tech auf generative KI als humanitäres, ja sogar philanthropisches Projekt und den Befürchtungen der Menschen, dass sie ihre Daten stehlen und ihre Fähigkeiten verdrängen.
Dr. Marcus kommentierte: "[KI-Unternehmen]...sollten zurück ans Zeichenbrett gehen und herausfinden, wie man Software entwickelt, die kein Plagiatsproblem hat, anstatt Künstler, Schriftsteller und andere Anbieter von Inhalten zu schröpfen."
Jetzt wissen wir, warum Sam Altman im letzten Sommer um die Welt reiste und sich mit führenden Politikern traf: Sein Unternehmen wird nur dann groß rauskommen, wenn es die Regierungen davon überzeugen kann, ihm eines der größten Almosen der Geschichte zu geben. https://t.co/Pcc8FchG1a
- Gary Marcus (@GaryMarcus) 8. Januar 2024
Die Klagen häufen sich
Dies geschieht auch inmitten mehrerer Klagen gegen OpenAI, an denen namhafte Autoren wie John Grisham, Jodi Picoult und George RR Martin verklagte das Unternehmen im September im vergangenen Jahr wegen angeblichen "systematischen Diebstahls in großem Stil".
Zwei geschätzte Journalisten, Nicholas Gage und Nicholas Basbanes, haben eine weitere Beschwerde eingereicht gegen OpenAI und Microsoft letzte Wocheund fügt sich damit in die wachsende Zahl rechtlicher Herausforderungen ein, denen sich KI-Unternehmen aus der schreibenden und bildenden Kunst gegenübersehen.
OpenAI reagierte auch auf die Klage der New York Times und erklärte, sie sei "unbegründet" (siehe unten).
Wir entwickeln KI, um Menschen, einschließlich Journalisten, zu unterstützen.
Unser Standpunkt zur @nytimes Rechtsstreit:
- Schulung ist fair, aber wir bieten eine Opt-out-Möglichkeit
- "Regurgitation" ist ein seltener Fehler, den wir auf Null reduzieren wollen.
- Die New York Times erzählt nicht die ganze Geschichtehttps://t.co/S6fSaDsfKb- OpenAI (@OpenAI) 8. Januar 2024
Diese Entwicklungen geben Anlass zur Sorge über die potenziellen rechtlichen Verpflichtungen, denen sich KI-Unternehmen in diesem Jahr und in Zukunft gegenübersehen könnten. Wie werden sie sich anpassen? Wird der wachsende Widerstand der Öffentlichkeit Auswirkungen auf die Entwicklung der Branche haben?
Und wie lassen sich generative KI-Modelle in großem Maßstab ethisch korrekt trainieren? Ist die Ethik überhaupt mit der aktuellen Inkarnation der Technologie vereinbar?
Die Verteidigung der KI-Unternehmen hält bisher stand, aber die Kluft zwischen den Vorstellungen der KI-Entwickler von "fairer Nutzung" und der Wahrnehmung durch andere wird immer größer.