Wir sind nun wirklich in ein Zeitalter eingetreten, in dem man dem, was man online sieht, nicht mehr trauen kann.
Diese Aussage trifft zwar teilweise schon seit Jahrzehnten zu, aber die KI hat die Manipulation von Inhalten auf ein neues Niveau gehoben, das das öffentliche Bewusstsein massiv übersteigt.
Die KI-Deep-Fake-Technologie kann Bilder, Videos und Audioaufnahmen erstellen und verändern, indem sie Personen des öffentlichen Lebens Worte in den Mund legt oder sie in Situationen erscheinen lässt, die nie stattgefunden haben.
In vielen Fällen genügt ein zweiter Blick, um die Echtheit von Inhalten zu erkennen, und gefälschte Medien können Millionen von Eindrücken sammeln, bevor sie erkannt werden.
Wir sind jetzt Zeuge von tiefgreifenden Fälschungen, die potenziell demokratische Prozesse unterbrechen können, obwohl es noch zu früh ist, um greifbare Auswirkungen auf das Wahlverhalten zu messen.
Schauen wir uns einige der bemerkenswertesten politischen KI-Deep-Fake-Vorfälle an, die wir bisher erlebt haben.
Joe Biden Zwischenfall in New Hampshire
Januar 2024, A New Hampshire, USA, a Robocall, der Bidens Stimme nachahmt ermutigte die Wähler, "Ihre Stimme für die Wahlen im November aufzusparen", und suggerierte damit fälschlicherweise, dass die Teilnahme an den Vorwahlen Donald Trump ungewollt Vorteile bringen würde.
Sie wurde Kathy Sullivan zugeschrieben, einer ehemaligen Vorsitzenden der Demokratischen Partei des Bundesstaates, deren persönliche Handynummer. Sullivan verurteilte den Vorgang als eklatante Form der Wahleinmischung und persönliche Belästigung.
Das Büro des Generalstaatsanwalts von New Hampshire erklärte, dies sei ein illegaler Versuch, die Vorwahlen zu stören und die Wahlbeteiligung zu unterdrücken.
Es wurde festgestellt, dass der Ton mit Hilfe von ElevenLabs, einem führenden Unternehmen im Bereich der Sprachsynthese, erzeugt wurde.
ElevenLabs suspendierte später den Übeltäter hinter der gefälschten Biden-Stimme und sagte: "Wir setzen uns dafür ein, den Missbrauch von Audio-KI-Tools zu verhindern und nehmen jeden Vorfall von Missbrauch sehr ernst."
Bundeskanzler Olaf Scholz tief gefälschter Vorfall
Im November 2023 wurde Deutschland Zeuge eines AI Deep Fake, der fälschlicherweise darstellte, dass Bundeskanzler Olaf Scholz ein Verbot der rechtsextremen Partei Alternative für Deutschland (AfD) befürwortet.
Dieses stark gefälschte Video war Teil einer Kampagne einer Kunst-Aktivistengruppe, der Zentrum für politische Schönheit (CPB)und zielt darauf ab, die Aufmerksamkeit auf den wachsenden Einfluss der AfD zu lenken. Die Kritik an der AfD wird mit Blick auf die Geschichte Deutschlands in den 1930er Jahren vorgetragen.
Unter der Leitung des Philosophen und Künstlers Philipp Ruch will die CPB-Gruppe "politische Poesie" und "moralische Schönheit" schaffen, die sich mit zentralen aktuellen Themen wie Menschenrechtsverletzungen, Diktatur und Völkermord auseinandersetzen.
Das CPB hat sich an zahlreichen umstrittenen Projekten beteiligt, wie zum Beispiel dem "Search for Us" Installation in der Nähe des Bundestagesdie angeblich Erde aus ehemaligen Todeslagern und Überreste von Holocaust-Opfern enthielt.
Während die Unterstützung für die AfD zugenommen hat, zeigen zahlreiche Proteste in ganz Deutschland, dass die Ideologien der AfD auf starken Widerstand stoßen.
Ein Sprecher der Gruppe, die hinter dem Deep Fake steht, erklärte: "In unseren Augen ist der Rechtsextremismus in Deutschland, der im Parlament sitzt, gefährlicher."
AfD-Vertreter bezeichneten die "Deep Fake"-Kampagne als Täuschungsmanöver, um die Partei zu diskreditieren und die öffentliche Meinung zu beeinflussen.
Der britische Premierminister Rishi Sunak in Betrügereien verwickelt
Im Januar 2024 stellte ein britisches Forschungsunternehmen fest, dass PM Rishi Sunak an über 100 betrügerischen Videowerbungen beteiligt war, die hauptsächlich auf Facebook verbreitet wurden und schätzungsweise 400.000 Personen erreichten.
Diese Anzeigen, die aus verschiedenen Ländern wie den USA, der Türkei, Malaysia und den Philippinen stammten, warben für betrügerische Investitionspläne, die fälschlicherweise mit bekannten Persönlichkeiten wie Elon Musk in Verbindung gebracht wurden.
Die Untersuchung, die von der Online-Kommunikationsagentur Firma Fenimore HarperDie Studie "Die Zukunft der sozialen Medien" machte deutlich, dass die Unternehmen der sozialen Medien auf diese Art von Inhalten einfach nicht in einem angemessenen Zeitrahmen reagieren.
Marcus Beard, der Gründer von Fenimore Harper, erklärte, wie KI Fehlinformationen demokratisiert: "Mit dem Aufkommen von billigen, einfach zu bedienenden Stimm- und Gesichtsklonen braucht es nur sehr wenig Wissen und Erfahrung, um die Ähnlichkeit einer Person für böswillige Zwecke zu nutzen."
Beard kritisierte auch die unzureichende Moderation von Inhalten in den sozialen Medien und stellte fest: "Diese Anzeigen verstoßen gegen mehrere der Werberichtlinien von Facebook. Allerdings scheinen nur sehr wenige der Anzeigen, auf die wir gestoßen sind, entfernt worden zu sein".
Die britische Regierung reagierte auf die Gefahr von betrügerischen Fälschungen: "Wir arbeiten umfassend in der gesamten Regierung, um sicherzustellen, dass wir bereit sind, auf jegliche Bedrohung unserer demokratischen Prozesse durch unsere Taskforce zur Verteidigung der Demokratie und spezielle Regierungsteams schnell zu reagieren."
Pakistans Premierminister Imran Khan erscheint zu einer virtuellen Kundgebung
Im Dezember 2023 wird der ehemalige pakistanische Premierminister Imran Khan wegen des Verdachts auf Weitergabe von Staatsgeheimnissen inhaftiert, bei einer virtuellen Kundgebung mit Hilfe von KI erschienen.
Obwohl er hinter Gittern sitzt, wurde Khans digitaler Avatar von einem Millionenpublikum aufmerksam verfolgt. Die Kundgebung enthielt Ausschnitte aus früheren Reden, an denen seine politische Partei Pakistan Tehreek-e-Insaaf (PTI) beteiligt war.
In seiner vierminütigen Rede sprach Khan von Widerstandskraft und Trotz gegen die politischen Repressionen, denen die PTI-Mitglieder ausgesetzt sind.
Die Stimme der AI artikulierte: "Unsere Partei darf keine öffentlichen Versammlungen abhalten. Unsere Leute werden entführt und ihre Familien werden schikaniert", und weiter: "Die Geschichte wird sich an eure Opfer erinnern".
Um die Situation zu verwirren, versuchte die pakistanische Regierung angeblich, den Zugang zu der Kundgebung zu blockieren.
NetBlocks, eine Organisation zur Überwachung des Internets, stellte fest: "Metriken zeigen, dass die wichtigsten Social-Media-Plattformen in Pakistan am Sonntagabend während einer politischen Online-Veranstaltung für [fast] 7 Stunden eingeschränkt waren; der Vorfall steht im Einklang mit früheren Fällen von Internetzensur, die sich gegen den Oppositionsführer Imran Khan und seine Partei PTI richteten."
ℹ️ ICYMI: Metriken zeigen, dass die wichtigsten sozialen Medienplattformen in #Pakistan Der Vorfall steht im Einklang mit früheren Fällen von Internetzensur, die sich gegen den Oppositionsführer Imran Khan und seine Partei PTI richteten, und zwar am Sonntagabend für etwa 7 Stunden. https://t.co/AS9SdfwqoH pic.twitter.com/XXMYBhknXd
- NetBlocks (@netblocks) 18. Dezember 2023
Usama Khilji, ein Befürworter der freien Meinungsäußerung in Pakistan, kommentierte: "Da das Recht der PTI auf Versammlungs- und Meinungsfreiheit durch die Verhaftung der Parteiführung vollständig beschnitten wird, markiert der Einsatz von künstlicher Intelligenz durch die Partei zur Ausstrahlung einer virtuellen Rede mit den Worten ihres inhaftierten Vorsitzenden und ehemaligen Premierministers Imran Khan einen neuen Punkt in der Nutzung von Technologie in der pakistanischen Politik."
Gefälschte Aufnahme des ehemaligen sudanesischen Präsidenten Omar al-Bashir auf TikTok
Eine KI-gestützte Kampagne auf TikTok nutzte die Stimme von ehemaliger sudanesischer Präsident Omar al-Bashir inmitten der anhaltenden zivilen Unruhen im Land.
Seit Ende August 2023 postet ein anonymer Account angeblich "durchgesickerte Aufnahmen" von al-Bashir. Analysten haben jedoch festgestellt, dass es sich bei den Aufnahmen um KI-generierte Fälschungen handelt.
al-Bashir" ist aus der Öffentlichkeit verschwunden, seit er 2019 aufgrund von schweren Kriegsverbrechensvorwürfen aus dem Land vertrieben wurde.
Audio-Betrug am Wahltag in der Slowakei
Am Tag der slowakischen Wahlen wurde eine umstrittene Tonaufnahme veröffentlicht, in der Michal Šimečka, Vorsitzender der Partei Progressive Slowakei, und die Journalistin Monika Tódová über korrupte Praktiken wie den Kauf von Stimmen diskutierten.
Dies geschah im Rahmen der slowakischen Mediensperre vor den Wahlen, so dass die betroffenen Personen ihre Beteiligung vor der Nachwahl nicht ohne weiteres öffentlich widerlegen konnten.
Beide involvierten Parteien verurteilten später die Aufnahme als tiefe Fälschungwas eine Agentur zur Überprüfung der Fakten bestätigte.
Volodymyr Zelenskiy's tiefe Fälschung
Im Jahr 2023 wurde ein stark gefälschtes Video des ukrainischen Präsidenten Wolodymyr Zelenskiy, das laienhaft den Eindruck erweckte, er rufe die Soldaten auf, ihre Posten zu verlassen, schnell als Fälschung identifiziert und von den großen Social-Media-Plattformen entfernt.
Türkische Wahlen tiefes Fake-Drama
Im Vorfeld der türkischen Parlaments- und Präsidentschaftswahlen wurde im Internet ein Video verbreitet, das fälschlicherweise zeigt, dass der Hauptherausforderer von Präsident Recep Tayyip Erdoğan, Kemal Kılıçdaroğlu, von der PKK unterstützt wird.
Donald Trump tief gefälscht
Anfang 2023 wurden wir Zeuge von realistisch aussehenden Fälschungen der Verhaftung von Donald Trump und eines Wahlkampfvideos von Ron DeSantis mit KI-generierten Bildern von Trump, der Anthony Fauci umarmt.
Die belgische politische Partei Trump tief gefälscht
Ein früherer Vorfall im Jahr 2018 in Belgien sorgte für politischen Aufruhr, als ein von einer politischen Partei erstelltes, stark gefälschtes Video für einen öffentlichen Aufschrei sorgte.
In dem Video wurde fälschlicherweise dargestellt, dass Präsident Donald Trump Belgien rät, aus dem Pariser Klimaabkommen auszusteigen.
Das Video war Teil einer Hightech-Fälschung, die später vom Medienteam der Partei zugegeben wurde. Es zeigte, wie tiefgreifend Fälschungen sein können, um Erklärungen führender Politiker der Welt zu fälschen und die öffentliche Meinung und die Politik zu beeinflussen.
Tiefe Fälschung von Nancy Pelosi
Ein manipuliertes Video von Nancy Pelosi im Jahr 2020, das den Anschein erweckt, als würde sie lallen und betrunken sein, verbreitete sich schnell in den sozialen Medien.
Dies hat gezeigt, dass Fälschungen das Potenzial haben, Persönlichkeiten des öffentlichen Lebens zu diskreditieren und in Verlegenheit zu bringen, was oft auch dann noch der Fall ist, wenn der Inhalt als gefälscht eingestuft wird.
Audio-Deepfake von Keir Starmer
Ein weiterer Vorfall in der britischen Politik betraf einen Audioclip, der angeblich den Oppositionsführer Sir Keir Starmer beim Beschimpfen seiner Mitarbeiter zeigt.
Der Clip, der in den sozialen Medien weite Verbreitung fand, entpuppte sich später als eine von der KI generierte Fälschung.
In dem Maße, in dem Technologieunternehmen nach Möglichkeiten suchen, Fälschungen in großem Umfang zu bekämpfen, werden die KI-Modelle, die zur Erstellung gefälschter Medien verwendet werden, immer ausgefeilter und einfacher zu nutzen sein.
Der vor uns liegende Weg erfordert gemeinsame Anstrengungen von Technologen, politischen Entscheidungsträgern und der Öffentlichkeit, um die Vorteile der KI zu nutzen und gleichzeitig die Grundpfeiler unserer Gesellschaft, nämlich Vertrauen und Integrität, zu schützen.
Das Vertrauen in die Politik und die öffentlichen Institutionen ist ohnehin schon sehr gering, um es vorsichtig auszudrücken. Tiefgreifende Fälschungen werden es weiter untergraben.