Eine Gruppe von fünf US-Autoren hat separate Sammelklagen gegen OpenAI und Meta eingereicht und damit die Liste der Rechtsstreitigkeiten, mit denen sich OpenAI bereits konfrontiert sieht, weiter verlängert.
Die Autoren Michael Chabon, David Henry Hwang, Matthew Klam, Rachel Louise Snyder und Ayelet Waldman behaupten, dass OpenAI und Meta beim Training ihrer jeweiligen KI-Modelle GPT und Llama ihre Urheberrechte verletzt haben.
Diese Klagen kommen, da OpenAI bereits gegen zwei andere Rechtsstreitigkeiten von Schriftstellern, die behaupten, dass sie in ähnlicher Weise unter der unerlaubten Verwendung ihrer Werke leiden.
Die Anwälte von OpenAI müssen noch auf diese jüngste Klage reagieren, aber ihre Argumente bestehen weiterhin darauf, dass die Verwendung von urheberrechtlich geschütztem Material durch das Unternehmen nach dem Prinzip der fairen Nutzung legal war.
OpenAI hat nicht zugegeben, dass es die urheberrechtlich geschützten Werke in die Trainingsdatensätze von ChatGPT aufgenommen hat, aber es hat dies auch nicht bestritten.
Ich habe mich einer Klage gegen OpenAI (Eigentümer von ChatGPT) wegen Verletzung des Urheberrechts angeschlossen. Ich hoffe, dass dadurch der KI Grenzen gesetzt werden, um die Schriftsteller nicht nur in meiner Generation, sondern auch in den kommenden Generationen zu schützen.@LauraDeNardis @nytimesbooks https://t.co/TM4jhXzuSk
- Rachel Louise Snyder (@RLSWrites) 12. September 2023
Es ist jedoch offensichtlich, dass sie diese veröffentlichten Werke durchaus verwendet haben.
Wenn Sie ChatGPT um eine Zusammenfassung des Pulitzer-Preisträgers Michael Chabon's Buch "The Amazing Adventures of Kavalier & Clay" bitten, liefert es diese gerne.
Wenn Sie nach einem Auszug aus dem Buch fragen, antwortet ChatGPT: "Es tut mir leid, aber ich kann keine wortwörtlichen Auszüge aus urheberrechtlich geschützten Texten bereitstellen."
Das scheint fair zu sein. Andere Unternehmen veröffentlichen Zusammenfassungen oder Buchbesprechungen, ohne gegen das Urheberrecht zu verstoßen. Und es liegt doch im Interesse eines Autors, dass die Leute seine Werke kennenlernen, oder?
Die Autoren behaupten jedoch, dass die Modelle von OpenAI nicht nur mit dem kostenpflichtigen Produkt GPT Plus Geld verdienen, sondern auch in anderer Hinsicht ihre Rechte verletzen.
Die rechtliche Hinterlegung Im Fall von OpenAI heißt es: "Wenn ChatGPT aufgefordert wird, einen Text im Stil eines bestimmten Autors zu erstellen, würde GPT Inhalte auf der Grundlage von Mustern und Verbindungen generieren, die es aus der Analyse der Arbeit dieses Autors in seinem Trainingsdatensatz gelernt hat."
Das ist ein gutes Argument. Wenn man ChatGPT bittet, einen Absatz im Stil des Buches zu schreiben, macht es seine Sache sehr gut. Hier ist ein Auszug aus dem, was es geschrieben hat:
"In dem schwach beleuchteten Raum, umgeben von Papierstapeln und halbfertigen Skizzen, kauerten Sam Clay und Josef Kavalier über ihrem Zeichentisch, ihre kreativen Energien flossen wie eine Quelle der Fantasie. Draußen tobte die Welt unter dem Grollen eines Krieges, der sich endlos über Kontinente zu erstrecken schien."
Das ist ziemlich gut. Jetzt sieht das Argument der fairen Nutzung etwas schwächer aus und der potenzielle Schaden für die Urheber wird deutlicher.
Eine Person könnte ChatGPT dazu bringen, einen ganzen Roman im Stil eines berühmten Autors zu schreiben. Aber nicht jeder denkt, dass das eine rechtliche Frage ist.
Im Juli sagte Kent Walker, Googles Präsident für globale Angelegenheiten, gegenüber der Washington Post: "Die KI-Modelle lernen im Grunde aus all den Informationen, die es gibt. Es ist vergleichbar mit einem Schüler, der in einer Bibliothek Bücher liest und dann lernt, wie man schreibt und liest".
Die Klageerhebung gegen Meta scheint Argumente vorzubringen, die denen in früheren Klagen von OpenAI ähneln. OpenAI hat die meisten dieser Klagen gefordert zurückzuweisende Argumente sondern beabsichtigt, bestimmte Punkte zum Thema Urheberrecht und Ausbildungsdaten zu erörtern.
Meta und OpenAI sind bei weitem nicht die einzigen KI-Entwickler, die fragwürdige Quellen für KI-Trainingsdaten verwendet haben. Sie stehen in der juristischen Schusslinie, aber Unternehmen wie Microsoft, Google und Stability AI werden das Verfahren genau beobachten.