Der Israel-Gaza-Konflikt ist zum Hintergrund für den zunehmenden Einsatz von künstlicher Intelligenz bei der Erstellung von Fälschungen geworden, was für Israel, den Gazastreifen und externe Beobachter zu einem Problem geworden ist.
Unter den verschiedenen Bildern aus Gaza sind einige besonders erschütternd. "Blutverschmierte, verlassene Säuglinge", wie sie beschrieben wurden, erlangten online Berühmtheit.
Ein Bild eines verbrannten Babys wurde von Influencern wie Ben Shapiro geteilt und erreichte Millionen von Menschen, bevor es veröffentlicht wurde. in eine Kontroverse verwickelt weil sie KI-generiert sind.
Viele dieser gefälschten Bilder weisen subtile, aber verräterische Anzeichen digitaler Manipulationen auf, wie "Finger, die sich seltsam krümmen, oder Augen, die in einem unnatürlichen Licht schimmern. "Es ist jedoch äußerst schwierig, diese Anzeichen spontan zu erkennen.
Außerdem variiert die Qualität der Bilder. Einige sind wiederverwendete Fotos aus verschiedenen Konflikten, während andere vollständig von der KI generiert werden. Mit der Zeit werden sie nur noch realistischer werden.
Der CEO von CREOpoint, Jean-Claude Goldenstein, sagt: "Es wird noch schlimmer werden - viel schlimmer - bevor es besser wird". Sein Unternehmen hat eine Datenbank mit den viralsten Fälschungen aus dem Konflikt zusammengestellt, die die wachsende Rolle der KI bei der Fälschung von Realitäten in Konflikten verdeutlicht.
Der Hauptzweck von Deep Fakes besteht darin, Schock und Angst zu erzeugen, weshalb sie häufig auf Kinder abzielen, um emotionale Reaktionen zu verstärken.
Wie Imran Ahmed, CEO des Zentrums zur Bekämpfung des digitalen Hasses, erklärtDie Desinformation ist so angelegt, dass man sich darauf einlässt.
Die Zahl der Fälschungen steigt ständig
Deep Fakes sind eine weit verbreitete Auswirkung bzw. Nebenwirkung der KI-Entwicklung. Es besteht nicht nur die Gefahr, dass KI-Fälschungen als authentisch angesehen werden, sondern auch, dass echte Inhalte als Fälschungen angesehen werden.
Außerdem ist dieses Phänomen keineswegs auf den Gaza-Konflikt beschränkt. Ähnliche KI-generierte Inhalte tauchten während der russischen Invasion in der Ukraine im Jahr 2022 auf, darunter ein manipuliertes Video des ukrainischen Präsidenten Zelenskyy.
Andere Beispiele sind gefälschte Bilder von Politikern, wie zum Beispiel Trump umarmt Fauci. Und das Problem beschränkt sich nicht nur auf Bilder - gefälschte Stimmen haben verwickelte Politiker in Gespräche an denen sie nicht teilgenommen haben oder die gar nicht stattgefunden haben.
Technologieunternehmen auf der ganzen Welt reagieren darauf mit der Entwicklung von KI-Filtern, die Fälschungen erkennen, Bilder authentifizieren und Texte auf Fehlinformationen analysieren können. Google, YouTube und Meta haben kürzlich versprochen, KI-generierte Inhalte zu kennzeichnen, aber das ist eine technische Herausforderung.
Wir haben auch eine Flut von Faktenprüfungsdiensten erlebt, die zweifelhafte Inhalte aufdecken sollen, aber ihre Verfahren sind fehlerhaft und langsam. Und welche Folgen hat es, wenn ein "seriöser" Faktenprüfer etwas fälschlicherweise als echt oder gefälscht bezeichnet?
Angesichts der bevorstehenden wichtigen Wahlen, insbesondere der Präsidentschaftswahlen in den USA im Jahr 2024, schüren die Fälschungen eine starke Paranoia. Ihre Auswirkungen haben noch nicht die Obergrenze erreicht.