AI-Wasserzeichen funktionieren nicht und werden es wahrscheinlich auch nie.

Oktober 3, 2023

tiefgreifende künstliche Intelligenz

Unternehmen versuchen, digitale Wasserzeichen zur Identifizierung von KI-Bildern zu verwenden, doch neueste Untersuchungen zeigen, dass ihre Bemühungen möglicherweise vergeblich sind.

Ein Forscherteam der University of Maryland testete modernste Wasserzeichentechniken für Bilder und kam zu keinem guten Ergebnis.

Soheil Feizi, Professor für Informatik an der University of Maryland, sagte, dass sein Team alle existierenden Wasserzeichentechniken getestet hat und sie alle gebrochen hat.

Die Forschungsarbeit räumt ein, dass Wasserzeichen der vielversprechendste Schutz gegen tiefe Fälschungen zu sein scheinen, skizziert dann aber die Unzulänglichkeiten der derzeitigen Ansätze.

Die beiden wichtigsten Methoden der Wasserzeichenerstellung sind die mit geringer und die mit hoher Störung.

Bei der Methode mit geringer Störung wird eine subtile Änderung an einem Bild vorgenommen, die für das Auge nicht wahrnehmbar ist, aber dennoch digital erkannt werden kann. Bei diesen Methoden gab es einen Kompromiss zwischen Leistung und Fehlalarmen. Je besser die Methode eine KI-Fälschung erkennen konnte, desto wahrscheinlicher war es, dass sie ein echtes Bild fälschlicherweise als Fälschung identifizierte.

Bei einer starken Störung wird dem Bild ein sichtbares Element hinzugefügt, was als robusterer Ansatz gilt. Den Forschern gelang es, auch diese Wasserzeichen zu entfernen. Ihr Ansatz der "Model Substitution Adversarial Attack" entfernte sogar die subtileren fortgeschrittenen Baumring-Wasserzeichen.

Da KI weiterhin die Erstellung und Verbreitung von Desinformationen vorantreibt, brauchen wir eine wirksame Methode, um zu erkennen, ob ein Bild oder Video von KI erstellt wurde. Diese Untersuchung kommt jedoch zu dem Schluss, dass eine wirksame Lösung immer unwahrscheinlicher, wenn auch nicht unmöglich wird.

Das Team von Feizi hat nur die verfügbaren Wasserzeichen getestet. Google und Meta arbeiten an ihren eigenen Wasserzeichentechnologien, die aber noch nicht für Tests zur Verfügung standen.

Dennoch ist Feizi der Ansicht, dass ihre Untersuchungen darauf hindeuten, dass selbst die großen Technologieunternehmen keine narrensichere Lösung liefern werden. A von Forschern der Universität von Kalifornien veröffentlichte Arbeit zu dem Schluss, dass "alle unsichtbaren Wasserzeichen angreifbar sind".

Je besser die generative KI wird, desto schwieriger wird es wahrscheinlich, ein KI-generiertes Bild zu identifizieren. Selbst wenn also kommerzielle KI-Bildgeneratoren wie DALL-E oder Midjourney ein effektives Wasserzeichen verwenden, gibt es nichts, was andere Modelle dazu zwingen würde, dies zu tun.

Ein weiterer Punkt, der in Feizis Forschung hervorgehoben wird, ist, dass es ihnen gelungen ist, KI-Wasserzeichen in Bilder einzufügen, die nicht von KI generiert wurden.

Das Problem dabei ist, dass böswillige Akteure ein KI-Wasserzeichen anbringen könnten, um die Beweise zu diskreditieren, wenn ihnen ein Foto vorgelegt wird.

Wir müssen abwarten, wie sich die Wasserzeichen von Google und Meta gegen die Brute-Force-Angriffe von Feizis Team schlagen. Bis dahin müssen wir uns wohl immer wieder daran erinnern, dass Sehen nicht Glauben ist.

 

Join The Future


HEUTE ABONNIEREN

Klar, prägnant, umfassend. Behalten Sie den Überblick über KI-Entwicklungen mit DailyAI

Eugene van der Watt

Eugene kommt aus der Elektronikbranche und liebt alles, was mit Technik zu tun hat. Wenn er eine Pause vom Konsum von KI-Nachrichten einlegt, findet man ihn am Snookertisch.

×

KOSTENLOSES PDF EXKLUSIV
Mit DailyAI immer einen Schritt voraus

Melden Sie sich für unseren wöchentlichen Newsletter an und erhalten Sie exklusiven Zugang zum neuesten eBook von DailyAI: 'Mastering AI Tools: Ihr Leitfaden für mehr Produktivität im Jahr 2024".

*Mit der Anmeldung zu unserem Newsletter akzeptieren Sie unsere Datenschutzbestimmungen und unsere Bedingungen und Konditionen