Während sich Bangladesch auf seine nationalen Wahlen Anfang Januar vorbereitet, taucht eine zunehmend bekannte Bedrohung auf: KI-generierte, gefälschte Falschinformationen.
Die Wahlen in Bangladesch sind ein heißer Kampf zwischen der derzeitigen Premierministerin Sheikh Hasina und der Opposition, der Bangladesh Nationalist Party.
In zahlreichen Berichten wird darauf hingewiesen, dass regierungsnahe Gruppen diese Werkzeuge einsetzen, um KI-generierte Nachrichtenclips zu produzieren, die die öffentliche Meinung beeinflussen sollen.
In einem dieser Clips kritisiert beispielsweise ein von der KI erstellter Nachrichtensprecher aus Bangladesch die USA, was die Position der derzeitigen Regierung widerspiegelt.
Ein weiteres Beispiel sind gefälschte Videos, die darauf abzielen, Oppositionspolitiker zu diskreditieren, indem sie unpopuläre Positionen zu sensiblen Themen wie der Unterstützung des Gazastreifens zeigen, die in diesem mehrheitlich muslimischen Land mit 175 Millionen Einwohnern von großer Bedeutung sind.
Tiefgreifende Fehlinformationen und Desinformationen sind wohl zu den unmittelbarsten und dringlichsten Risiken der KI geworden. Erst diese Woche hat der russische Präsident Wladimir Putin mit einer KI-Kopie seiner selbst konfrontiert wurde in einer Pressekonferenz - ein Student benutzte sie, um in einer live im Fernsehen übertragenen Fragerunde auf die Fälschungen hinzuweisen.
Die slowakischen Wahlen litten unter Desinformation in den sozialen Medien in den letzten 48 Stunden vor der Postzeit, in der es den Medien verboten ist, über politische Nachrichten zu berichten.
Große Technologieunternehmen wie Google und Meta beginnen, Richtlinien für politische Werbung einzuführen, einschließlich der Verpflichtung, digitale Veränderungen offenzulegen. Bislang scheinen diese Maßnahmen jedoch schwach zu sein, vor allem in Regionen, die nicht so viel Aufmerksamkeit von diesen Unternehmen erhalten.
Die Regulierung der künstlichen Intelligenz ist in erster Linie Sache des Westens, während es in den Entwicklungsländern meist an digitalen Vorschriften und Rechten mangelt, so dass die Menschen und ihre Daten der Ausbeutung preisgegeben sind.
Wie funktioniert die Deep-Fake-Technologie?
Deep Fake" ist ein nichttechnischer Begriff, der eine extrem effektive Fälschung beschreibt, die in der Regel mit generativen KI-Tools erstellt wird.
Ein anschauliches Beispiel ist HeyGen, ein KI-Videogenerator mit Sitz in Los Angeles. Gegen eine bescheidene Abonnementgebühr ermöglicht dieser Dienst den Nutzern, Clips mit KI-Avataren zu erstellen.
Ein solches Video, in dem die USA der Einmischung in die Wahlen in Bangladesch bezichtigt werden, wurde auf sozialen Medienplattformen verbreitet.
Da diese KI-Avatare so lebensecht sind, schlüpfen sie oft durch die Filter der sozialen Medien, und die Öffentlichkeit reagiert möglicherweise nicht sofort. Einige gefälschte Bilder, die mit dem Israelisch-palästinensischer Konflikt Millionen von Menschen erreichten, bevor sie umfassend als Fälschung entlarvt wurden, zum Beispiel.
Das Fehlen von robusten KI-Erkennungsinstrumenten für nicht-englische Inhalte verschärft das Problem noch.
Da die KI-Technologie immer weiter fortschreitet und immer zugänglicher wird, müssen Regulierungsbehörden und digitale Plattformen unbedingt wirksame Maßnahmen zur Bekämpfung von Desinformation entwickeln und durchsetzen.
Bislang erweist sich diese Aufgabe als unlösbar.