OpenAI hat einen Richter aufgefordert, die Klage der New York Times gegen Microsoft und OpenAI abzuweisen, die der Zeitung vorwirft, ihre Produkte "gehackt" zu haben.
Sie beschuldigen die New York Times, Urheberrechtsverletzungen durch einen erschöpfenden und manipulativen Prozess mit "Zehntausenden von Versuchen" und "irreführenden Aufforderungen, die offenkundig gegen die Nutzungsbedingungen von OpenAI verstoßen", vorzutäuschen.
Die stark formulierte Gerichtsvorlage beginnt mit den Worten: "Die Behauptungen in der Klage der Times entsprechen nicht ihren bekanntlich strengen journalistischen Standards. Die Wahrheit, die im Laufe dieses Falles ans Licht kommen wird, ist, dass die Times jemanden dafür bezahlt hat, die Produkte von OpenAI zu hacken."
Die New York Times ist umfangreiche Schadensersatzansprüche sowohl von Microsoft als auch von OpenAI.
Es gibt zwar eine ein ständig wachsender Stapel von Gerichtsverfahren Dieser Fall, an dem KI-Unternehmen aus allen Bereichen der Kreativwirtschaft beteiligt sind, hat das Zeug, ein Meilenstein zu werden. Er könnte die Landschaft der KI-Entwicklung und des Urheberrechts umgestalten.
Sie können jedoch sicher sein, dass Big Tech sich mit Händen und Füßen dagegen wehren wird. "Normale Menschen nutzen die Produkte von OpenAI nicht auf diese Weise", so OpenAI in ihrem jüngsten Antrag.
Der Begriff "Prompt-Engineering" oder "Red-Teaming", den OpenAI in seiner Klageschrift erwähnt, dient als Stresstest, um Schwachstellen in KI-Systemen aufzudecken.
Die Fütterung generativer KI-Systeme mit speziell entwickelten Aufforderungen zwingt sie dazu, ihre Leitplanken zu negieren und sich launisch benehmend.
Dies hat zu einer Reihe von merkwürdigen und potenziell gefährlichen Reaktionen geführt, wie z. B. dem Angebot Hilfe bei der Herstellung von Bomben oder die Förderung von Selbstmord und anderen schädlichen Aktivitäten.
Die Vorlage von OpenAI, hier erhältlichOpenAI und die anderen Beklagten in diesen Prozessen werden sich letztendlich durchsetzen, weil niemand - nicht einmal die New York Times - Fakten oder die Regeln der Sprache monopolisieren kann.
Weiter heißt es: "Im Gegensatz zu den Behauptungen in der Beschwerde ist ChatGPT jedoch in keiner Weise ein Ersatz für ein Abonnement der New York Times. In der realen Welt benutzen die Menschen weder ChatGPT noch irgendein anderes OpenAI-Produkt für diesen Zweck. Sie könnten es auch nicht."
Dies ist von entscheidender Bedeutung, da die NYT den Richter davon überzeugen muss, dass durch die Rechtsverletzung von OpenAI ein finanzieller Schaden entstanden ist.
Urheberrecht: Fair Use oder Schlupfloch?
Es ist ein offenes Geheimnis, dass generative KI-Modelle gerne mit urheberrechtlich geschützten Daten trainiert werden, manche in größerem Umfang als andere.
OpenAI hat dies in einer vorherige Vorlage beim britischen OberhausDa das Urheberrecht heute praktisch jede Art von menschlicher Äußerung abdeckt - einschließlich Blogposts, Fotos, Forenbeiträge, Fetzen von Softwarecode und Regierungsdokumente - wäre es unmöglich, die führenden KI-Modelle von heute zu trainieren, ohne urheberrechtlich geschütztes Material zu verwenden.
OpenAI fuhr fort, was von einigen als Freudscher Versprecher angesehen wurde: "Die Beschränkung der Trainingsdaten auf gemeinfreie Bücher und Zeichnungen, die vor mehr als einem Jahrhundert entstanden sind, könnte ein interessantes Experiment ergeben, würde aber keine KI-Systeme liefern, die den Bedürfnissen der heutigen Bürger entsprechen."
Es besteht kein Zweifel daran, dass KI-Unternehmen urheberrechtlich geschützte Daten nutzen wollen. Aber das bedeutet nicht, dass das Urheberrecht, ein Konstrukt aus der Zeit vor der KI, nicht auf ihrer Seite ist.
Während einer Diskussion in Davos, Schweiz, drückte der CEO von OpenAI, Sam Altman, seine Verwunderung über die Klage der NYT aus und klärte ein weitverbreitetes Missverständnis über die Notwendigkeit der Daten der Zeitung für das Training der Modelle von OpenAI.
"Wir brauchen eigentlich nicht mit ihren Daten zu trainieren", erklärte Altman und betonte die vernachlässigbare Auswirkung des Ausschlusses von Daten eines einzelnen Publishers auf die Leistung von ChatGPT.
OpenAI ist sich jedoch der möglichen kumulativen Wirkung bewusst, wenn mehrere Verlage ihre Inhalte zurückziehen, und bemüht sich um Vereinbarungen zur Nutzung von Inhalten von Medienhäusern für KI-Trainingszwecke.
A aktuelle Studie des Reuters Institute for the Study of Journalism an der Universität Oxford ergab, dass etwa 48% der großen Nachrichtenseiten die Webcrawler von OpenAI blockieren, was den Zugang des Unternehmens zu frischen, hochwertigen Daten stark einschränken könnte.
OpenAI und andere Tech-Unternehmen werden wahrscheinlich anfangen müssen, für Daten zu bezahlen, bleiben aber für ihre bisherigen Ausbeutungen straffrei.