Das DeepMind-Forschungslabor von Google hat eine Beta-Version von SynthID vorgestellt, seinem neuen Tool für Wasserzeichen und die Identifizierung von KI-generierten Bildern.
Die Besorgnis über Deepfakes und das Potenzial von KI, Desinformation zu fördern, hat deutlich gemacht, dass eine Möglichkeit zur Erkennung von KI-generierten Bildern benötigt wird.
Herkömmliche Wasserzeichen, die aus urheberrechtlichen Gründen in Bilder eingefügt werden, können durch Zuschneiden, Hinzufügen von Filtern oder Bearbeiten leicht entfernt werden. Sogar Metadaten können von den Bildern entfernt werden.
SynthID bettet das digitale Wasserzeichen direkt in die Pixel des Bildes ein. Die Anzahl der bearbeiteten Pixel ist so gering, dass das Wasserzeichen für das menschliche Auge nicht wahrnehmbar ist. Durch Skalieren, Beschneiden oder Verringern der Auflösung des Bildes wird das Wasserzeichen nicht entfernt.
Wenn Sie wüssten, wo sich das Wasserzeichen befindet, könnten Sie es technisch entfernen, würden aber auch das Bild beschädigen.
Google stellt SynthID einigen seiner Kunden zur Verfügung, die seinen Bildgenerator Imagen auf Googles Vertex AI-Plattform nutzen.
Benutzer, die ein Bild mit Imagen erstellen, können das Wasserzeichen hinzufügen oder SynthID verwenden, um zu erkennen, ob ein Bild mit Imagen erstellt wurde. Dies ist jedoch keine narrensichere Methode, da die Beitrag über DeepMind anerkannt.
"Das Tool bietet drei Vertrauensstufen für die Interpretation der Ergebnisse der Wasserzeichenerkennung. Wenn ein digitales Wasserzeichen erkannt wird, ist ein Teil des Bildes wahrscheinlich von Imagen erzeugt worden."
Die DeepMind-Blogbeitrag sagte auch, dass "SynthID nicht narrensicher gegen extreme Bildmanipulationen ist".
Wird SynthID einen Unterschied machen?
Google bewirbt das Tool nicht als Allheilmittel für gefälschte Bilder, aber es ist ein Anfang. Wenn sich die Methode als wirksam erweist und sich bei anderen KI-Bildgeneratoren durchsetzt, könnte es einfacher werden, eine Fälschung zu erkennen.
Selbst wenn eine narrensichere Methode entwickelt wird, die auf etwas wie SynthID basiert, wie würden Sie sie durchsetzen? Es gibt so viele KI-Bildgeneratoren, die sich jeglicher Regulierung entziehen.
Wenn Sie die Leute nicht daran hindern können, die KI zur Erzeugung von Bildern von KindesmissbrauchWie kann man sie dann zwingen, gefälschten Bildern ein Wasserzeichen hinzuzufügen?
Eine weitere Herausforderung für Unternehmen wie Google besteht darin, dass ein Tool, das Vertrauen schaffen soll, narrensicher sein muss. Wenn man den Leuten sagt, dass ein politisch brisantes Bild mit einer Wahrscheinlichkeit von 75% gefälscht ist, beseitigt das nicht die Argumente über seine Authentizität.
Das Hinzufügen eines Wasserzeichens wie SynthID zu einem gefälschten Bild scheint eine gute Idee zu sein, aber was hält jemanden davon ab, ein ähnliches Wasserzeichen zu einem echten Bild hinzuzufügen?
Kritisches Denken und eine gesunde Portion Skepsis sind vielleicht noch eine Weile unsere beste Verteidigung gegen KI-Fälschungen.