Microsoft hat zugesagt, die rechtliche Verantwortung für Urheberrechtsverletzungen zu übernehmen, die durch KI-generierte Inhalte in seinen Tools, einschließlich Copilot, entstehen.
Copilot ist ein KI-Tool, das sich direkt in die Microsoft 365-Softwarefamilie integriert, zu der Word, PowerPoint und Excel gehören.
Es ist noch nicht öffentlich verfügbar, aber es wird Benutzern ermöglichen, automatisch Texte zu erstellen und zusammenzufassen, Präsentationen zu erstellen, Diagramme zu erstellen, Daten zu analysieren und vieles mehr.
Laut Hossein Nowbar, Microsofts General Counsel of Corporate Legal Affairs, übernimmt Microsoft alle potenziellen rechtlichen Risiken für kommerzielle Kunden, die seine KI-Produkte nutzen, vorausgesetzt, sie halten sich an die eingebauten "Leitplanken und Inhaltsfilter".
Mit anderen Worten: Wenn Copilot Inhalte produziert, die das Urheberrecht eines anderen verletzen, und dieser verklagt wird, wird Microsoft zahlen.
Die Ankündigung erfolgte im Detail über eine offizieller Microsoft-BlogbeitragDarin heißt es: "Wenn ein Dritter einen kommerziellen Kunden wegen Urheberrechtsverletzungen verklagt, weil er Microsofts Copiloten oder die von ihnen erzeugte Ausgabe verwendet, werden wir den Kunden verteidigen und den Betrag aller nachteiligen Urteile oder Vergleiche zahlen, die sich aus dem Rechtsstreit ergeben, sofern der Kunde die Schutzmechanismen und Inhaltsfilter verwendet, die wir in unsere Produkte eingebaut haben."
Microsoft möchte die Befürchtungen zerstreuen, dass generative KI ungewollt urheberrechtlich geschütztes Material produzieren könnte.
Ilanah Fhima, Professorin für Recht des geistigen Eigentums am University College London, stellt fest: "Dieser Schritt öffnet den Markt" und "macht diese Software besser nutzbar, da er eines der Hindernisse für Unternehmen beseitigt, wenn sie wissen, dass sie diese Sicherheit haben".
Dies war ein unerwarteter Schritt von Microsoft - das Versprechen, die Scherben von Rechtsstreitigkeiten der Kunden aufzusammeln, ist etwas, das im Zeitalter der KI nur Sinn macht.
Darüber hinaus bietet die Vorschrift, dass die Kunden die "Leitplanken und Inhaltsfilter" der Produkte verwenden müssen, Microsoft einen zusätzlichen Schutz vor Missbrauch.
Ethische Bedenken und frühere Gegenreaktionen
Der Schritt von Microsoft wirft die Frage auf, ob das Unternehmen beabsichtigt, das Vertrauen der Öffentlichkeit in seine Produkte zu stärken oder lediglich die Akzeptanz zu fördern.
Die Zahlung von Anwaltskosten ist eine Sache, aber es geht nicht darum, ob die Trainingsdaten von OpenAI urheberrechtlich geschützte Inhalte enthalten.
Anfang des Jahres wies Adobe Firefly mögliche Urheberrechtsprobleme mit dem Hinweis zurück, dass das Modell nur auf Adobe Stock-Fotos trainiert wurde und nicht auf Daten, die aus dem Internet stammen.
Das Unternehmen eine identische Verpflichtung eingegangenDie Firma ist nicht verpflichtet, die Anwaltskosten für mögliche rechtliche Probleme zu übernehmen, die sich aus den Ergebnissen von Firefly ergeben, aber das ist eine relativ einfache Verpflichtung, da sie die Trainingsdaten besitzt.
Microsoft kann nicht das gleiche Maß an Transparenz bieten, obwohl es die gleichen rechtlichen Zusicherungen gibt.
Die Wahrheit ist, dass es nicht möglich wäre, die Art der Trainingsdaten von Copilot offenzulegen, da er mit den GPT-Modellen von OpenAI erstellt wurde, die mit ziemlicher Sicherheit zumindest auf urheberrechtlich geschütztem Material trainiert wurden, das durch fragwürdige Praktiken beschafft wurde.
Das soll nicht heißen, dass OpenAI die Urheberrechte der Schöpfer validiert hat, aber jemand hat es getan, und OpenAI hätte es gewusst.
Microsofts Blogpost bringt zum Ausdruck, dass das Unternehmen Urheberrechte und Eigentumsrechte schätzt und erklärt: "Es ist wichtig, dass Autoren die Kontrolle über ihre Rechte im Rahmen des Urheberrechts behalten und eine gesunde Rendite für ihre Kreationen erzielen... und wir sollten sicherstellen, dass die Inhalte, die zum Trainieren und Erden von KI-Modellen benötigt werden, nicht in den Händen eines oder einiger weniger Unternehmen auf eine Art und Weise eingeschlossen sind, die den Wettbewerb und die Innovation ersticken würde."
Obwohl Copilot auf ChatGPT aufbaut, lässt ihr Blog-Post darauf schließen, dass sie mit Filtern ausgestattet, die die Ausgaben streng vor Urheberrechtsverletzungen schützen.
Nach dem Wortlaut von Microsoft könnten diese spezifischen Leitplanken nur für Copilot gelten und bestehen aus "Klassifizierern, Metaprompts, Inhaltsfiltern und operativer Überwachung und Missbrauchserkennung, einschließlich solcher, die potenziell gegen Inhalte Dritter verstoßen".
Microsoft sagt auch, dass die Filter "die Wahrscheinlichkeit verringern, dass Copilots verletzende Inhalte zurückgeben".
Die Formulierung "die Wahrscheinlichkeit verringern" impliziert, dass trotz der Filter immer noch eine *Wahrscheinlichkeit* besteht, dass die Werkzeuge Urheberrechte verletzen.
A eine Reihe von Rechtsstreitigkeiten behaupten, dass KI-Tools Inhalte produzieren, die urheberrechtlich geschütztem Material zu sehr ähneln, einschließlich einiger wortwörtlicher Abschnitte von Büchern oder Zusammenfassungen, die nicht erklärbar wären, wenn ChatGPT nicht ungehinderten Zugang zu den Büchern selbst hätte.
OpenAI hat diese Fälle kürzlich alsunbegründetDas Gerichtsverfahren ist allerdings noch nicht abgeschlossen.
Unklarheit
Derzeit ist nicht klar, wo die GPT-Modelle von OpenAI enden, wo Copilot beginnt und wie weit die Feinabstimmung von Microsoft geht.
Unter weiterer BeitragLaut Microsoft "verbindet Copilot nicht nur ChatGPT mit Microsoft 365, sondern kombiniert die Leistung großer Sprachmodelle (LLMs) mit Ihren Daten im Microsoft Graph (einschließlich Ihres Kalenders, Ihrer E-Mails, Chats, Dokumente, Meetings und mehr) und den Microsoft 365-Apps, um Ihre Worte in das leistungsfähigste Produktivitätswerkzeug der Welt zu verwandeln."
Microsoft hat ein Video veröffentlicht, in dem die Funktionsweise von Copilot erklärt wird, das jedoch nicht ins Detail geht.
Im Moment können wir davon ausgehen, dass Microsofts neue Inhaltsfilter und Leitplanken potenziell urheberrechtlich geschütztes Material aggressiv filtern, vielleicht in größerem Umfang als ChatGPT. Microsoft könnte Copilot bereinigt haben, um die Verwendung von potenziell urheberrechtlich geschütztem Material zu unterbinden.
Auswirkungen auf die Industrie
Microsofts kühner Schritt, die rechtlichen Risiken von Urheberrechtsverletzungen auf sich zu nehmen, bedeutet mehr als nur eine Unternehmensentscheidung.
Wie die Unternehmen wissen, befinden wir uns in der Wildwest-Ära der KI-Regulierung. Man könnte dies als eine kalkuliertes Risiko, aber das bedeutet auch, dass es ein Glücksspiel ist.
Da die Gesetze und Präzedenzfälle zu KI und Urheberrecht noch im Entstehen begriffen sind, muss das Unternehmen möglicherweise noch nicht mit exorbitanten Rechtskosten rechnen.
Globale rechtliche Dynamik
Als Abobe dasselbe Versprechen abgab, sagte der Chefsyndikus des Unternehmens, Dana Rao: "Die Rechtslage ist nicht geklärt, und ich kann Ihnen nicht sagen, in welche Richtung die Urheberrechtsfälle gehen werden, aber ich kann Ihnen als gebürtiger Amerikaner garantieren, dass es eine Menge Klagen geben wird, so dass diese Versicherung [für unsere Unternehmenskunden] ziemlich attraktiv und nicht wirklich ein Gimmick ist."
Es ist schön und gut, das KI-Urheberrecht als Teil des US-amerikanischen Rechtsrahmens zu diskutieren, aber als multinationales Unternehmen könnte Microsofts Politik einen Präzedenzfall schaffen, der in mehreren Rechtsordnungen mit jeweils eigenen Urheberrechtsgesetzen und Haltungen gegenüber KI zu berücksichtigen ist.
Dadurch könnte Microsoft in eine Rolle gedrängt werden, die es vielleicht gar nicht will: die eines globalen Schiedsrichters, der den De-facto-Standard für die Behandlung von KI-Urheberrechtsfragen weltweit festlegt.
Angenommen, Copilot produziert einen fragwürdigen Text, der einem urheberrechtlich geschützten Werk ähnelt - Die Auslegung der Frage, ob die Ausgabe umfassend gegen das Urheberrecht verstößt, kann von Rechtsprechung zu Rechtsprechung variieren.
So unterscheidet sich beispielsweise das britische Urheberrecht in mehrfacher Hinsicht von dem der USA. Während sich das US-Urheberrecht auf die "faire Nutzung" konzentriert, die ein recht flexibler Standard ist, stützt sich das Vereinigte Königreich auf das Konzept des "fairen Umgangs", das begrenzter ist und in vorgeschriebene Kategorien wie Forschung, Rezensionen und Nachrichtenberichterstattung passen muss.
In den USA kann ein Unternehmen eine "transformative Nutzung" geltend machen, d. h. eine neue Kreation, die etwas Neues hinzufügt oder das ursprüngliche Werk in einer Weise wesentlich verändert, die es von einer Urheberrechtsverletzung ausnehmen könnte.
Im Vereinigten Königreich erschwert jedoch das Fehlen einer Klausel über die "transformative Nutzung" die Klärung von Urheberrechtsfragen für KI-generierte Inhalte, wodurch sich das rechtliche Risiko für Microsoft erhöhen könnte, wenn es seine KI-Produkte britischen Kunden anbietet.
Darüber hinaus ist der Ansatz des Vereinigten Königreichs in Bezug auf die Urheberpersönlichkeitsrechte - die die persönliche Beziehung zwischen einem Urheber und seinem Werk schützen - robuster als in den USA.
Sollte eine KI ein urheberrechtlich geschütztes Werk im Wesentlichen nachbilden, könnte der stärkere Schutz der Urheberpersönlichkeitsrechte im Vereinigten Königreich Microsofts rechtliches Kalkül noch komplizierter machen.
Daher könnte Microsofts Politik weitreichende Auswirkungen haben, indem sie de facto einen globalen Standard setzt.
Dieser Standard müsste ausreichend flexibel sein, um den Unterschieden zwischen den globalen Rahmenwerken Rechnung zu tragen, aber auch streng genug, um den Kunden einen sinnvollen Schutz und Sicherheiten zu bieten.
Vermutlich wird die Zusage in gewissem Umfang rechtlich geprüft werden, um zu klären, wie sie auf globale Kunden angewandt wird, falls sie außerhalb der USA tatsächlich Auswirkungen hat.
Senkung der Schranken für Kunden, Erhöhung der Schranken für Wettbewerber
Wie Abobe senkt auch Microsoft die rechtlichen Hürden für den Einsatz von KI in Unternehmen, indem es sich verpflichtet, seine Kunden rechtlich zu unterstützen.
Dieser Schritt könnte sich jedoch auf das gesamte Ökosystem der Start-ups auswirken. Start-ups, die oft die Innovation vorantreiben, aber nicht über die finanziellen Mittel verfügen, um umfangreiche Haftungen zu übernehmen, könnten es zunehmend schwerer haben, auf einem Markt zu konkurrieren, auf dem die Schwergewichte eine "Rechtsversicherung" als Teil des Pakets anbieten.
Es gibt bereits Befürchtungen, dass die Einhaltung der kommenden KI-Vorschriften für kleinere Unternehmen der Branche extrem teuer werden könnte.
Dies könnte die Landschaft der KI-Entwicklung verändern und die Macht in den Händen derjenigen konsolidieren, die es sich leisten können, rechtliche Risiken einzugehen.
Wollen wir, dass die KI-Industrie so aussieht? Eine Branche, in der Unternehmen ihre Produkte vermarkten, indem sie sich verpflichten, Anwaltskosten zu zahlen?
Ethisch gesehen ist dieser Schritt nicht ganz unproblematisch. Microsoft behauptet zwar, dass es Urheberrechte schätzt und sie durch diese Leitplanken sogar schützen will, bewegt sich aber in einem Bereich, in dem noch über den "richtigen" Weg diskutiert wird.
Indem Microsoft die rechtliche Last auf sich nimmt, könnte es außerdem so aussehen, als ob es die Notwendigkeit strengerer ethischer Überlegungen bei der Entwicklung und Nutzung von KI umgeht.
Anstatt in eine Technologie zu investieren, die von Natur aus die Rechte am geistigen Eigentum respektiert, entscheidet sich das Unternehmen dafür, ein mögliches Durcheinander hinterher "aufzuräumen".
Dies könnte als eine Art ethischer Tauschhandel angesehen werden, bei dem Microsoft das Versprechen rechtlicher Unterstützung gegen eine verstärkte Nutzung seiner Dienste eintauscht, möglicherweise auf Kosten der Förderung ethischerer KI-Praktiken.
Werden andere Unternehmen diesem Beispiel folgen? Wahrscheinlich.
Auch dieses Szenario ist nur im Zeitalter der KI sinnvoll.