Meta hat neue Initiativen angekündigt, um die Transparenz von KI-generierten Inhalten auf seinen Plattformen zu erhöhen.
Schreiben in einer Blog-BeitragNick Clegg, Meta's President for Global Affairs, betonte das Engagement des Unternehmens bei der Kennzeichnung von KI-generierten Bildern, um den Nutzern zu helfen, zwischen von Menschen erstellten und synthetischen Inhalten zu unterscheiden.
Clegg erklärte: "Da der Unterschied zwischen menschlichen und synthetischen Inhalten immer unschärfer wird, wollen die Menschen wissen, wo die Grenze liegt." Er fügte hinzu, dass Meta "mit Partnern aus der Industrie zusammenarbeitet, um gemeinsame technische Standards festzulegen, die signalisieren, dass ein Inhalt mit Hilfe von KI erstellt wurde."
Meta erkennt die zunehmende Verbreitung von fotorealistischen, durch KI generierten Inhalten an, die mittlerweile als Deep Fakes bekannt sind.
Taylor Swift war das jüngste prominente Opfer von expliziten KI-generierte Bilder, die nicht konsensfähig sinddie die Nutzer auf eine "Herausforderung" auf 4Chan zurückführten.
Ein Betrug, der von Video-Fakes inszeniert wurde, brachte einem multinationalen Unternehmen am Montag $25,6 Millionen ein.
Die Verantwortung für die Verhinderung der Verbreitung dieser Bilder liegt ganz klar bei den Unternehmen der sozialen Medien wie X und Meta.
Meta hat fotorealistische Bilder, die mit der eigenen Meta AI-Funktion erstellt wurden, als "Imagined with AI" gekennzeichnet und plant, diese Praxis auf Inhalte auszudehnen, die mit den Tools anderer Unternehmen erstellt wurden.
Das Unternehmen entwickelt nach eigenen Angaben Tools, die in der Lage sind, unsichtbare Markierungen und Metadaten zu erkennen, die in KI-generierte Bilder eingebettet sind, und die es ermöglichen, Inhalte aus einem breiten Spektrum von Quellen zu kennzeichnen, darunter Google, OpenAI, Microsoft, Adobe, Midjourney und Shutterstock.
Meta ist nun bereit, diese Kennzeichnungen für alle unterstützten Sprachen auf seinen Plattformen anzuwenden.
Clegg betonte auch die Notwendigkeit der Zusammenarbeit in der Technologiebranche: "Da KI-generierte Inhalte überall im Internet auftauchen, haben wir mit anderen Unternehmen unserer Branche zusammengearbeitet, um in Foren wie der Partnership on AI (PAI) gemeinsame Standards für deren Identifizierung zu entwickeln. Die unsichtbaren Markierungen, die wir für Meta-KI-Bilder verwenden - IPTC-Metadaten und unsichtbare Wasserzeichen - stehen im Einklang mit den Best Practices der PAI."
Trotz aller Bemühungen und Fortschritte bei der Bekämpfung von Fälschungen weist Clegg darauf hin, dass die Erkennung von KI-generierten Audio- und Videosignalen aufgrund des Mangels an vergleichbaren Signalen nach wie vor schwierig ist.
Aber auch gefälschte Bilder können Millionen von Eindrücken sammeln, bevor sie entfernt werden - wie der jüngste Vorfall mit Taylor Swift gezeigt hat.
Andere Vorfälle, wie der Kommentator Ben Shapiro, der eine Wahrscheinlich KI-generiertes Bild eines toten Babys aus dem israelisch-palästinensischen Konflikt, erregte ebenfalls weltweit große Aufmerksamkeit, bevor sie abgelehnt wurde.
Als Übergangsmaßnahme wird Meta eine Funktion einführen, die es den Nutzern ermöglicht, offenzulegen, wann sie KI-generierte Videos oder Audios teilen.
Aber wer wird das nutzen, wenn er Inhalte veröffentlicht, die eine Kontroverse auslösen sollen?
Zusätzlich zur Kennzeichnung erforscht Meta verschiedene Technologien, um die Fähigkeit zur Erkennung von KI-generierten Inhalten zu verbessern, selbst wenn keine unsichtbaren Marker vorhanden sind.
Dazu gehört auch die Erforschung der Technologie für unsichtbare Wasserzeichen, wie z. B. die Stabile Signatur das vom Meta-Forschungslabor für künstliche Intelligenz, FAIR, entwickelt wurde und das Wasserzeichen direkt in den Bilderzeugungsprozess integriert.
Die Wahlen stehen bevor, die Fälschungen nehmen zu
Wir haben miterlebt, wie zahlreiche Fälle von politischer Fehlinformation durch tiefe Fälschungen kanalisiert.
Google, Meta, YouTube, X und andere verstärken ihre Anstrengungen, um im Vorfeld der bevorstehenden Wahlen, auch in den USA und Großbritannien (höchstwahrscheinlich), gegen Fälschungen vorzugehen.
In dem Maße, wie KI-generierte Inhalte immer ausgefeilter und verbreiteter werden, wächst der Bedarf an Wachsamkeit und Innovation bei der Authentifizierung und Transparenz von Inhalten.
Ist eine endgültige Lösung in Sicht? Es scheint nicht so.