Während wir uns in diesem Jahr auf entscheidende Wahlen zubewegen - nicht weniger als die US-Wahlen - werden wir Zeuge des bösen Zwillings von tiefgreifenden Fehlinformationen - der "Lügendividende".
Deep Fakes sind unglaublich lebensechte KI-generierte Kopien von Audio-, Video- oder Bildmaterial.
Es gibt zahlreiche Beispiele für Deep Fakes, die sich auf Menschen und Gesellschaft auswirken, von einem KI-generierten Bild des Pentagons bis hin zu die den Aktienmarkt im vergangenen Jahr beeinflusst haben zu einer Robocall-Stimme diese Woche Präsident Biden nachahmend.
Tiefgreifende Fälschungen sind jedoch nicht nur nützlich, um die Wahrheit zu verzerren - sie sind auch hervorragend geeignet, um sie zu widerlegen. Dies wurde als "Lügendividende" bezeichnet und beschreibt im Wesentlichen den Nutzen, den jemand daraus zieht, authentische Inhalte als Fälschungen zu brandmarken.
So behauptete der ehemalige Präsident Donald Trump als Reaktion auf eine Fox-News-Werbung, in der seine öffentlichen Fehltritte im vergangenen Jahr aufgezeigt wurden, dass die das Filmmaterial wurde von der KI erstellt.
Er prangerte die Anzeige in einem Beitrag auf Truth Social an und sagte: "Die Perversen und Verlierer des gescheiterten und einst aufgelösten Lincoln-Projekts und andere benutzen KI in ihren gefälschten Fernsehspots, um mich so schlecht und erbärmlich aussehen zu lassen wie den korrupten Joe Biden, was nicht einfach ist."
Das Lincoln-Projekt widerlegte daraufhin Trumps Behauptung und wies darauf hin, dass die Anzeige gut dokumentierte Vorfälle aus seiner Präsidentschaft enthielt.
Libby Lange, eine Analystin bei Analytik-Anbieter GraphikaDie KI destabilisiert das Konzept der Wahrheit an sich", erklärt er. Wenn alles gefälscht sein könnte und jeder behauptet, dass alles gefälscht oder auf irgendeine Weise manipuliert ist, gibt es keinen Sinn mehr für eine grundlegende Wahrheit".
Weltweit wird die KI von Politikern nun regelmäßig als Sündenbock benutzt. So wurde beispielsweise ein umstrittenes Video eines taiwanesischen Politikers, das eine außereheliche Affäre andeutete, schnell als potenziell KI-generiert abgetan.
Auch im indischen Bundesstaat Tamil Nadu wies ein Politiker eine durchgesickerte Tonaufnahme als "maschinell erzeugt" zurück, obwohl ihre Echtheit nach wie vor ungewiss ist.
Wir haben auch AI-Bilder von Kriegsverbrechen in Israel, Palästina und der Ukraine gesehen, wie zum Beispiel ein verbranntes Baby, das Ben Shapiro mit Millionen von Anhängern teilte, bevor es als Fälschung diskreditiert.
Es gab auch nicht-politische Beispiele, wie z. B. ein Sprachclip, der angeblich von einem Schuldirektor aus Baltimore County stammt, der sich rassistisch geäußert hat. Es wurde behauptet, dass es sich dabei um eine KI handelt, aber es ist schwierig, dies ohne weiteren Kontext zu bestätigen.
Deep Fakes waren ein heißes Thema auf der jüngsten Weltwirtschaftsforum in Davosaber die bisherigen Bemühungen, sie einzudämmen, waren oberflächlich und unwirksam. Technologieunternehmen erforschen Möglichkeiten zur automatischen Überprüfung von KI-generierten Inhalten, aber nur Experten können zuverlässig zwischen echten und gefälschten Medien unterscheiden.
Und selbst die Experten irren sich, denn es gibt Fälle, in denen spezialisierte KI-Detektoren zu strittigen Schlussfolgerungen über die Echtheit eines Bildes kommen.
Angenommen, die Bilder werden "offiziell" als echt oder gefälscht eingestuft, aber das Urteil ist falsch - man kann sich nur vorstellen, was für eine Hölle dann ausbrechen würde.