Führende KI-Unternehmen verpflichten sich zur Entwicklung von Wasserzeichen-Techniken

Juli 22, 2023

AI-Wasserzeichen

Um gegen Fälschungen und Fehlinformationen vorzugehen, haben sich die sieben KI-Unternehmen, die diese Woche dem freiwilligen KI-Rahmenwerk der USA zugestimmt haben, dazu verpflichtet, von KI generierte Inhalte mit Wasserzeichen zu versehen.

Die Teilnehmer des freiwilliger RahmenZu den vom Weißen Haus am 21. Juni angekündigten Kandidaten gehören Google, OpenAI, Microsoft, Meta, Amazon, Anthropic und Inflection.

Als Teil dieses Rahmens haben sich diese Unternehmen verpflichtet, Wasserzeichen zu entwickeln, um der Öffentlichkeit zu helfen, die Herkunft von KI-generierten Inhalten zu erkennen und Täuschungen zu vermeiden.

Ähnlich wie ein herkömmliches Wasserzeichen wird ein KI-Wasserzeichen an ein Bild, ein Video, eine Audiodatei oder einen Text angehängt. 

Die Kennzeichnung KI-generierter Inhalte mit einem Wasserzeichen könnte Betrug, gefälschte virale Kampagnen und Sextortion eindämmen. "Dieses Wasserzeichen lässt die Kreativität der KI aufblühen und schränkt gleichzeitig die Risiken von Betrug und Täuschung ein", so das Weiße Haus. 

In einem Blog-Beitrag die kurz nach den Ankündigungen des Weißen Hauses veröffentlicht wurde, beschreibt OpenAI seine Vereinbarung, "robuste Mechanismen zu entwickeln, einschließlich Herkunfts- und/oder Wasserzeichensysteme für Audio- oder visuelle Inhalte". Sie wird auch "Werkzeuge oder APIs entwickeln, um festzustellen, ob ein Inhalt mit ihrem System erstellt wurde".

Google plant, die Verlässlichkeit von Informationen zu erhöhen, indem neben Wasserzeichen auch Metadaten und "andere innovative Techniken" integriert werden. 

Das Weiße Haus kündigte am Freitag verschiedene weitere Schutzmaßnahmen an, darunter die Durchführung interner und externer Tests von KI-Systemen vor der Freigabe, die Erhöhung der Investitionen in die Cybersicherheit und die Förderung der branchenweiten Zusammenarbeit zur Verringerung von KI-Risiken.

OpenAI sagte, diese Verpflichtungen seien "ein wichtiger Schritt zur Förderung einer sinnvollen und effektiven KI-Governance, sowohl in den USA als auch weltweit".

Das Unternehmen versprach außerdem, "in die Forschung in Bereichen zu investieren, die zur Regulierung beitragen können, wie etwa Techniken zur Bewertung potenziell gefährlicher Fähigkeiten in KI-Modellen".

Nick Clegg, Metas Präsident für globale Angelegenheiten, schloss sich der Meinung von OpenAI an und bezeichnete diese Verpflichtungen als "wichtigen ersten Schritt, um sicherzustellen, dass verantwortungsvolle Leitplanken für KI geschaffen werden".

Werden AI-Wasserzeichen funktionieren?

KI-generierte Inhalte mit Wasserzeichen zu versehen, ist zwar konzeptionell ansprechend, aber alles andere als narrensicher. 

Bilder, Videos und Tonaufnahmen können mit winzigen, schwachen Grafiken oder Tönen versehen sein, die auf ihren KI-Ursprung hinweisen.

Ebenso kann die Integration von Metadaten in KI-generierte Dateien Informationen über die Quelle und den Erstellungsprozess der Inhalte liefern. Das Entfernen von Wasserzeichen mit anderen KI-Tools oder das Entfernen von Metadaten wird jedoch wahrscheinlich einfach sein. 

Wenn Wasserzeichen entfernt werden können, gewinnen KI-generierte Inhalte ohne Wasserzeichen plötzlich an Legitimität. Das Fehlen eines Wasserzeichens könnte genutzt werden, um zu behaupten, ein Bild sei echt, obwohl es das nicht ist - ein potenziell gefährlicher Kompromiss. 

Wenn es um KI-generierten Text geht, gibt es keine unkomplizierte Lösung. Anders als bei Bildern oder Audiodateien lassen sich bei Text nicht so leicht Wasserzeichen einbetten. 

Der primäre Ansatz besteht darin, den Text durch KI-Detektoren zu leiten, die die Komplexität des Textes analysieren - ein Maß dafür, wie wahrscheinlich es ist, dass ein KI-Modell eine bestimmte Wortfolge vorhersagen kann - um abzuschätzen, ob der Text von einer KI generiert wurde. 

KI-Detektoren haben ihre Schwächen. Sie liefern oft eine hohe Rate an Fehlalarmen, was dazu führt, dass nicht von KI generierte Inhalte fälschlicherweise gekennzeichnet werden. 

Dieses Problem wird noch verschärft, wenn Texte analysiert werden, die von Nicht-Muttersprachlern verfasst wurden, die möglicherweise weniger gebräuchliche Formulierungen verwenden oder eine untypische Syntax aufweisen, was die Falsch-Positiv-Rate weiter erhöht. Eine aktuelle Studie aus diesen Gründen vom Einsatz von KI-Detektoren in der Ausbildung und bei der Rekrutierung abgeraten.

Mit der Weiterentwicklung von KI-Modellen wird die Grenze zwischen von Menschen geschriebenen und von KI geschriebenen Inhalten immer unschärfer. Da die KI immer besser in der Lage ist, menschliche Schreibstile zu imitieren, werden Detektoren, die auf der Perplexität basieren, immer weniger zuverlässig. 

Wasserzeichen sind zwar ein Schritt zur Verbesserung der Transparenz und Verantwortlichkeit bei KI-generierten Inhalten, aber sie sind keine einfache Lösung und dienen nicht als ultimative Abschreckung oder "Allheilmittel".

Join The Future


HEUTE ABONNIEREN

Klar, prägnant, umfassend. Behalten Sie den Überblick über KI-Entwicklungen mit DailyAI

Sam Jeans

Sam ist ein Wissenschafts- und Technologiewissenschaftler, der in verschiedenen KI-Startups gearbeitet hat. Wenn er nicht gerade schreibt, liest er medizinische Fachzeitschriften oder kramt in Kisten mit Schallplatten.

×

KOSTENLOSES PDF EXKLUSIV
Mit DailyAI immer einen Schritt voraus

Melden Sie sich für unseren wöchentlichen Newsletter an und erhalten Sie exklusiven Zugang zum neuesten eBook von DailyAI: 'Mastering AI Tools: Ihr Leitfaden für mehr Produktivität im Jahr 2024".

*Mit der Anmeldung zu unserem Newsletter akzeptieren Sie unsere Datenschutzbestimmungen und unsere Bedingungen und Konditionen