Auf der Münchner Sicherheitskonferenz erklärte eine Koalition aus 20 Tech-Giganten, darunter OpenAI, Meta, Microsoft und andere, eine gemeinsame Anstrengung zur Bekämpfung betrügerischer KI-Inhalte, die Wahlen weltweit beeinflussen.
Dies geschieht vor dem Hintergrund wachsender Bedenken, dass KI-generierte tiefe Fälschungen Wahlprozesse manipulieren könnten, zumal in diesem Jahr in mehreren Ländern wichtige Wahlen anstehen.
Wir haben bereits gesehen tiefe Fälschungen spielen eine Rolle zumindest bei den Wahlen in Pakistan, Indonesien, der Slowakei und Bangladesch.
Diese neue Vereinbarung umfasst Verpflichtungen zur Entwicklung von Instrumenten für die Erkennung und Bekämpfung irreführender KI-generierter Medien, zur Sensibilisierung der Öffentlichkeit für irreführende Inhalte und zum raschen Ergreifen von Maßnahmen zur Entfernung solcher Inhalte von ihren Plattformen.
Die Wahrheit ist jedoch, dass wir das schon oft gehört haben. Was ist also jetzt anders?
Während die genauen Zeitpläne für die Umsetzung noch unklar sind, betonten die Unternehmen die Notwendigkeit eines gemeinsamen Ansatzes, um dieser sich entwickelnden Bedrohung zu begegnen.
Die Technologieunternehmen verpflichteten sich, gemeinsame Werkzeuge einzusetzen, um die Verbreitung schädlicher, von KI generierter Wahlinhalte zu erkennen und einzudämmen, einschließlich Techniken wie Wasserzeichen, um die Herkunft und Veränderung von Inhalten zu bestätigen. Sie verpflichteten sich auch zur Transparenz ihrer Bemühungen und zur Bewertung der Risiken, die von ihren generativen KI-Modellen ausgehen.
"Ich denke, der Nutzen dieses Abkommens liegt in der Breite der Unternehmen, die es unterzeichnen", sagte Nick Clegg, Präsident für globale Angelegenheiten bei Meta Platforms.
"Es ist schön und gut, wenn einzelne Plattformen neue Strategien für Erkennung, Herkunft, Kennzeichnung, Wasserzeichen usw. entwickeln, aber solange es keine breitere Verpflichtung gibt, dies auf eine gemeinsame, interoperable Art und Weise zu tun, werden wir mit einem Sammelsurium unterschiedlicher Verpflichtungen dastehen.
Wiederum nichts, was wir nicht schon einmal gehört hätten. Es hat mehrere branchenübergreifende Vereinbarungen gegeben, aber keinen wirklich wirksamen Plan, um tiefgreifende Fälschungen zu verhindern.
Zum Beispiel, MLCommons arbeitet mit Big Tech zusammen die Festlegung von Sicherheitsmaßstäben, Unternehmen, die sich für Wasserzeichen einsetzenund dem Frontier Model Forum beigetretenwiederum zur Festlegung eines "einheitlichen Ansatzes". Diese drei branchenweiten Vereinbarungen sind mir gerade in den Sinn gekommen, aber es gibt sicher noch viele andere.
Deep Fakes sind nicht leicht zu erkennen, schon gar nicht in großem Maßstab. Sie sind der Realität so nahe gekommen, dass ihre Identifizierung mithilfe von KI oder algorithmischen Techniken besonders schwierig.
Technologieunternehmen haben darauf reagiert, indem sie Inhalte mit Metadaten versehen, die sie als KI-generiert ausweisen, aber wie lässt sich dadurch der Zweck des Bildes erkennen?
Auch Metadaten lassen sich leicht aus einer Datei entfernen. Außerdem wird es immer wieder KI-Unternehmen geben, die sich nicht an Vereinbarungen halten und Wege finden, die bestehenden Kontrollen zu umgehen.
Dana Rao, Chief Trust Officer von Adobe, erklärte, wie und warum diese Inhalte wirksam sind: "Es gibt eine emotionale Verbindung zu Audio, Video und Bildern", sagte er. "Unser Gehirn ist so verdrahtet, dass es diese Art von Medien glaubt.
Tatsächlich scheinen sich Deep Fakes noch lange, nachdem sie als Fälschung deklariert wurden, zu verbreiten. Es ist zwar schwierig zu quantifizieren, wie sehr sie unser Verhalten verändern, aber das schiere Ausmaß ihrer Auswirkungen - die Inhalte werden von Millionen von Menschen gleichzeitig angesehen - ist etwas, bei dem man kein Risiko eingehen kann.
Tatsache ist, dass wir mit mehr KI-bezogenen Deep-Fake-Vorfällen und Kontroversen rechnen können.
Individuelles Bewusstsein und kritisches Denken werden die größte Waffe der Menschheit sein, um negative Auswirkungen zu bekämpfen.