Der Januar 2024 begann mit Gesprächen über Midjourney, eine führende Kraft in der Welt der KI-Bilderzeugung, die die Namen und Stile von mehr als 16.000 Künstlern ohne deren Zustimmung zum Training ihrer Bilderzeugungsmodelle verwendet.
Sie können die Künstlerdatenbank einsehen unter Anhang J einer Klage, die gegen Midjourney, Stability AI und DeviantArt eingereicht wurde.
In derselben Woche veröffentlichten der Kognitionswissenschaftler Dr. Gary Marcus und der Konzeptkünstler Reid Southen eine Analyse in IEEE mit dem Titel "Generative KI hat ein visuelles Plagiatsproblem".
Sie führten eine Reihe von Experimenten mit den KI-Modellen Midjourney und DALL-E 3 durch, um deren Fähigkeit zu untersuchen, Bilder zu erzeugen, die urheberrechtlich geschütztes Material verletzen könnten.
Indem sie Midjourney und DALL-E 3 absichtlich kurze Aufforderungen gaben, die sich auf kommerzielle Filme, Figuren und erkennbare Schauplätze bezogen, offenbarten Marcus und Southen die unglaubliche Fähigkeit dieser Modelle, unverhohlen urheberrechtlich geschützte Inhalte zu produzieren.
Sie verwendeten Aufforderungen, die sich auf bestimmte Filme bezogen, wie "Avengers: Infinity War", ohne die Figuren direkt zu nennen. Damit sollte getestet werden, ob die KI allein durch kontextuelle Hinweise Bilder erzeugen würde, die dem urheberrechtlich geschützten Material sehr ähnlich sind.
Auch Zeichentrickfilme wurden behandelt - es wurde mit der Erzeugung von Bildern von "The Simpsons"-Figuren experimentiert, wobei Aufforderungen verwendet wurden, die die KI-Modelle dazu brachten, eindeutig erkennbare Bilder aus der Serie zu erzeugen.
Schließlich testeten Marcus und Southen Eingabeaufforderungen, die überhaupt nicht auf urheberrechtlich geschütztes Material anspielten, um zu zeigen, dass Midjourney in der Lage ist, urheberrechtlich geschützte Bilder auch dann abzurufen, wenn sie nicht ausdrücklich angefordert werden.
Midjourney stellt nicht lizenziertes geistiges Eigentum massenhaft und manchmal sogar fast wortwörtlich aus unspezifischen Aufforderungen nach und profitiert dabei von Abonnements. MJ-Nutzer müssen die Bilder nicht verkaufen, damit eine Urheberrechtsverletzung vorliegt, denn MJ profitiert bereits von ihrer Erstellung. pic.twitter.com/Ax3tQWq3pt
- Reid Southen (@Rahll) 7. Januar 2024
Dies war mehr als ein technisches Exposé - es berührte die Nerven der Künstlergemeinschaften weltweit.
Kunst ist schließlich nicht mit Daten gleichzusetzen. Sie ist der Höhepunkt lebenslanger emotionaler Investitionen, persönlicher Erkundungen und sorgfältiger Handarbeit.
Die Studie von Marcus und Southen sollte Teil einer langwierigen Debatte werden, die sich auf Urheberrecht, geistiges Eigentum, die Monetarisierung von KI und die Nutzung generativer KI durch Unternehmen erstreckt.
Unternehmen nutzen KI-generierte Arbeit, und Beobachter ignorieren sie nicht
Einer der Marketing-Slogans der generativen KI für die Einführung in Unternehmen lautet "Effizienz" oder Ableitungen davon.
Unabhängig davon, ob Unternehmen Technologien einsetzen, um Zeit und Geld zu sparen oder um Probleme zu lösen, wissen wir schon seit einiger Zeit, dass die "Effizienz" von KI mit dem Risiko verbunden ist, menschliche Fähigkeiten zu verdrängen oder Arbeitsplätze zu ersetzen.
Unternehmen werden oft ermutigt, dies als Chance zu sehen. Der Ersatz eines Menschen durch KI wird oft als strategische Entscheidung betrachtet.
Es kann sich jedoch als schwerer Fehler erweisen, diesen Kompromiss zwischen Mensch und Maschine so linear zu sehen, wie die folgenden Ereignisse ganz offen zeigen.
Die Menschen sind nicht gewillt, den Missbrauch von KI durch Unternehmen einfach so hinzunehmen, wenn sie die Möglichkeit haben, ihn zu konfrontieren.
ID@Xbox
Xbox hat über seinen Indie-Games-Handle ID@Xbox eine KI-generierte winterliche Szene veröffentlicht. Das war eine gewisse Ironie, da sich diese Abteilung von Xbox auf unabhängige Entwickler und die Unterstützung und Förderung ihrer Arbeit konzentriert.
Xbox entfernte den Beitrag später, ging aber ansonsten nicht weiter darauf ein.
Falls jemand mitzählen möchte... Xbox UND Game Informer haben beide in letzter Zeit generative KI verwendet oder gefördert. https://t.co/cOvkU3WXQ8 pic.twitter.com/2d5oeVTCLN
- Genel Jumalon ✈️ MagFest (@GenelJumalon) 7. Januar 2024
Game Informer hat, wie Sie oben sehen können, auch ein von der KI generiertes Bild des Master Chief aus Halo in schlechter Qualität veröffentlicht.
Magic: The Gathering
Das Fantasy-Sammelkartenspiel Magic: The Gathering zauberte ein Sturm der Entrüstung als sie ein teilweise KI-generiertes Bild einer neuen Kartenversion veröffentlichten. Vor allem der Hintergrund war KI-generiert, was an den verzerrten Linien und Kurven zu erkennen war.
MTG wies zunächst die Kritik von Beobachtern zurück, die im Laufe der Woche immer lauter wurde. Die Situation wurde dadurch verschärft, dass das Unternehmen zuvor eine Erklärung veröffentlicht hatte, in der es sich gegen den Einsatz von KI in seinen "Hauptprodukten" aussprach.
Es handelte sich um ein Werbebild in den sozialen Medien, das dieses Versprechen also nicht brach, aber es war MTGs anfängliches flaches Dementi, das bei vielen das Blut in Wallung brachte.
"von Menschen geschaffen" Richtig... pic.twitter.com/gf9TUXWSPA
- TaylorGreen (@GreenSkyDragon) 5. Januar 2024
Ich hasse es, dass wir in einer Zeit leben, in der wir die Fakten von Kunst überprüfen müssen. pic.twitter.com/9D6V6ZXswW
- Genel Jumalon ✈️ MagFest (@GenelJumalon) 5. Januar 2024
Später in der Woche gab sich MTG den Horden von Beobachtern geschlagen und teilte ihnen mit, dass dieses Bild nachweislich von einer KI generiert wurde.
Die Erklärung begann mit den Worten: "Wir haben vorhin einen Fehler gemacht, als wir sagten, dass ein von uns veröffentlichtes Marketingbild nicht mit KI erstellt wurde. Lesen Sie weiter" und erklärte, dass ein Designer wahrscheinlich ein KI-Tool wie Firefly, das in Photoshop integriert ist, oder ein anderes KI-gestütztes Grafikdesign-Tool verwendet hat, anstatt das gesamte Bild mit Midjourney oder ähnlichem zu erstellen.
Wir haben vorhin einen Fehler gemacht, als wir sagten, dass ein von uns veröffentlichtes Marketingbild nicht mit KI erstellt wurde. Lesen Sie weiter für mehr. (1/5)
- Magic: The Gathering (@wizards_magic) 7. Januar 2024
Ein Element dieser Debatte war, dass MTG wahrscheinlich nur KI zur Erzeugung des Bildhintergrunds verwendete.
Wenn Hierfür wurde Adobe Firefly verwendetwas möglich erscheint, dann ist Adobe optimistisch, was die ethisch und rechtlich einwandfreie Nutzung von Daten angeht, auch wenn dies umstritten ist.
Pöglicherweise ist es nicht das schlechteste Vergehen unter den anderen Anwärtern dieser Woche...
Wacom
Einer der größten Fehler der Woche war zweifelsohne Wacom, ein Hersteller von Zeichentabletts für Künstler und Illustratoren.
Es ist schockierend, dass Wacom, eine Marke, die sich auf die Unterstützung von Künstlern bei der Erstellung digitaler Kunst spezialisiert hat, ein von künstlicher Intelligenz generiertes Bild verwendet, um einen Rabattcoupon zu bewerben.
Auch hier erkannten die Nutzer den KI-Ursprung des Bildes anhand der für die Technologie charakteristischen Verzerrungen, wie z. B. dem Text unten links im Bild. Beobachter fanden den Drachen später bei Abobe Stock Images.
Die Reaktion war brutal: X-Nutzer demütigten die Marke und schlugen ihr vor, ihre Produkte zu boykottieren.
Weil Wacom seinen Beitrag gelöscht hat.
Die Veröffentlichung erfolgt aus Gründen des historischen Erhalts im Internet. https://t.co/WEZex5GbG9 pic.twitter.com/chiR2pOczB- Genel Jumalon ✈️ Animate Raleigh (@GenelJumalon) 6. Januar 2024
Wacom entschuldigte sich, aber der Versuch, die Verantwortung auf einen Dritten abzuwälzen, wurde nicht wohlwollend aufgenommen.
Eine Nachricht vom Wacom Team: pic.twitter.com/u06PNCvmhU
- Wacom (@wacom) 9. Januar 2024
Liga der Legenden
League of Legends war eine weitere Marke, die durch die geschmacklose Verwendung von KI-generierter Kunst zu Fall gebracht wurde.
Auch wenn es sich hier vielleicht um ein eher umstrittenes oder grenzwertiges Beispiel handelt, so gibt es doch zweifellos Anzeichen für KI, wie man an einigen ungünstig geformten Komponenten und Körperteilen sehen kann.
In den letzten Tagen wurde Wizards of the Coast dabei erwischt, wie sie KI in Werbekampagnen verwendeten, nachdem sie gesagt hatten, dass sie dies nicht tun würden. Wacom wurde ebenfalls erwischt und gelöscht, was angesichts ihrer Produkte verrückt ist, und wie es aussieht, auch Apex Legends. Die Jobs werden in Echtzeit vergeben, das macht mich krank. pic.twitter.com/EGBA1INMPZ
- Reid Southen (@Rahll) 7. Januar 2024
Eine Abrechnung für KI-Unternehmen?
2024 wurde eine Reihe von Klagen eingereicht, wobei die Autoren Nicholas Basbanes und Nicholas Gage Einreichung einer Beschwerde die behaupten, dass OpenAI und Microsoft ihre schriftlichen Werke unrechtmäßig ausgenutzt haben, die letzte seit der Dezember Klage bei der New York Times.
Insbesondere die Klage der NYT könnte monumentale Folgen für den KI-Sektor haben.
Alex Connock, Senior Fellow an der Saïd Business School der Universität Oxford, betonte die potenziellen Auswirkungen: "Sollte die Times den Fall gewinnen, könnte das für die gesamte KI-Branche katastrophal sein."
Er erläuterte die Auswirkungen und stellte fest, dass "ein Verlust des Grundsatzes, dass ein fairer Umgang das Lernen aus Materialien Dritter ermöglichen kann, ein Schlag für die gesamte Branche wäre".
Dr. Gary Marcus, der an der IEEE-Studie "Midjourney" beteiligt war, bezeichnete das Jahr 2024 auch als "Jahr der KI-Klage", und es stellt sich die Frage, ob dies in Verbindung mit der Regulierung und potenziellen Hardware-Knappheit auf einen "KI-Winter" hindeuten könnte, in dem der Entwicklungseifer der Branche abkühlt.
2024 wird 𝙙𝙚𝙛𝙞𝙣𝙞𝙩𝙚𝙡𝙮 das Jahr der Klage in GenAI sein.
Wenn Sie wissen wollen, warum, und warum GenAI wahrscheinlich viele dieser Klagen verlieren oder zu einem Vergleich gezwungen werden wird, lesen Sie die letzten Beiträge in meinem (kostenlosen) 𝖲𝗎𝖻𝗌𝗍𝖺𝖼𝗄, Marcus on AI. https://t.co/cO4bqKkbsa
- Gary Marcus (@GaryMarcus) 8. Januar 2024
Connock spekulierte auch über die weiteren Auswirkungen dieser Flut von Klagen und erklärte: "Wenn OpenAI den Fall verlieren sollte, würde dies allen anderen Inhaltsherstellern, die glauben, dass ihre Inhalte gecrawlt wurden (was im Grunde jeder ist), die Möglichkeit eröffnen, Schaden in einem branchenweiten Maßstab zu verursachen."
Connock vermutet: "Was fast zwangsläufig passieren wird, ist, dass die NY Times einen Vergleich schließen wird, nachdem sie eine bessere Vergütung für die Nutzung ihrer Inhalte erhalten hat."
Die Erkenntnis, dass es Risse in der KI-Industrie gibt, wäre sowohl für große Unternehmen wie die NYT als auch für unabhängige Entwickler von großer Bedeutung.
James Grimmelmann, Professor für Digital- und Informationsrecht an der Cornell University, erklärte: "Die Inhaber von Urheberrechten stehen Schlange, um die generative KI wie eine riesige Piñata zu schlagen, die aus ihren Werken gewebt wurde. 2024 wird wahrscheinlich das Jahr sein, in dem wir herausfinden, ob da Geld drin ist".
Wie stark ist also die Verteidigung der Industrie? Bislang klammern sich die KI-Entwickler an ihre "Fair-Use"-Argumente, wobei sie sich auf die Tatsache berufen, dass die meisten populären Datensätze von anderen Unternehmen als ihnen selbst erstellt wurden, was ihre Schuld verschleiert.
Technologieunternehmen sind geschickt darin, sich gegen rechtliche Verpflichtungen zu wehren, die der Forschung und Entwicklung im Wege stehen. Und vergessen wir nicht, dass die KI den Regierungen, die nach "Effizienz" und anderen Vorteilen streben, Möglichkeiten bietet, was ihren Widerstand abschwächt.
Die britische Regierung beispielsweise hat sogar eine urheberrechtliche Ausnahmeregelung für KI-Firmen in Erwägung gezogen, die sie nach großem Widerstand und einem Parlamentsausschuss wieder verworfen hat.
In Bezug auf die Strategie sagte William Fitzgerald, Partner bei der Worker Agency und ehemaliges Mitglied des Google-Teams für öffentliche Politik, in einem Gespräch mit der LA Times, sagte, Big Tech würde eine starke Lobbying-Kampagne starten, vielleicht nach dem Vorbild der Taktiken, die früher von Tech-Giganten wie Google eingesetzt wurden.
Dies würde eine Kombination aus Rechtsverteidigung, PR-Kampagnen und Lobbyarbeit erfordern - Taktiken, die in der Vergangenheit in aufsehenerregenden Fällen wie dem Kampf um das Gesetz gegen Online-Piraterie (SOPA) und dem Rechtsstreit um Google Books besonders sichtbar waren.
Fitzgerald stellt fest, dass OpenAI einen ähnlichen Weg wie Google einzuschlagen scheint, nicht nur bei der Behandlung von Urheberrechtsbeschwerden, sondern auch bei der Einstellungspraxis.
Er weist darauf hin: "Es scheint, dass OpenAI das Lobbying-Drehbuch von Google kopiert. Sie haben ehemalige Google-Befürworter angeheuert, um das gleiche Spielbuch anzuwenden, das für Google seit Jahrzehnten so erfolgreich ist."
Fitzgeralds Analyse deutet darauf hin, dass die KI-Branche, wie auch andere Technologiebranchen vor ihr, auf eine starke Lobbyarbeit und strategische politische Manöver angewiesen sein könnte, um die Rechtslandschaft zu ihren Gunsten zu gestalten.
Wie das ausgeht, lässt sich nicht vorhersagen. Aber Sie können sicher sein, dass Big Tech bereit ist, die Dinge bis zum bitteren Ende auszuschlachten.