Einem neuen Bericht zufolge nutzen gewalttätige Extremisten generative KI-Tools, um Inhalte in großem Umfang zu erstellen und dabei Leitplanken und Filter zu umgehen.
Intelligente Firma Technik gegen Terrorismus rund 5.000 Beispiele für KI-generierte Inhalte identifiziert, darunter Bilder, die mit Gruppen wie der Hisbollah und der Hamas in Verbindung gebracht werden.
Diese Bilder beziehen sich häufig auf heikle Themen wie den Krieg zwischen Israel und der Hamas, was auf einen strategischen Einsatz von KI zur Beeinflussung von Narrativen hindeutet.
Es gab bereits zahlreiche Beispiele von KI-generierten Bildern, die sowohl Israel als auch Palästina in Gräueltaten und Ereignisse verwickeln, an denen sie nicht beteiligt waren. Deep Fakes stellen eine doppelte Bedrohung dar: Gefälschte Bilder können als echt und echte Bilder als gefälscht interpretiert werden.
Adam Hadley, der geschäftsführende Direktor von Tech Against Terrorism, erklärte: "Unsere größte Sorge ist, dass, wenn Terroristen anfangen, Gen-KI zu nutzen, um Bilder in großem Umfang zu manipulieren, dies das Hash-Sharing als Lösung zerstören könnte. Das ist ein massives Risiko."
📰 In den Nachrichten | So nutzen gewalttätige Extremisten generative KI-Tools aus
Unser Exekutivdirektor, Adam Hadley, berichtete über unsere neuesten Erkenntnisse über #AI und Pilotprojekt mit @Microsoft auf @WIRED.
Lesen Sie hier: https://t.co/AUhrNTZibJ pic.twitter.com/yqY95J3L8i
- Technik gegen Terrorismus (@techvsterrorism) 10. November 2023
Von Neonazi-Gruppen, die rassistische und antisemitische KI-generierte Bilder verwenden, bis hin zum Islamischen Staat (IS), der Anleitungen für den sicheren Einsatz generativer KI-Tools veröffentlicht, wird das Spektrum des KI-Missbrauchs immer breiter.
Extremistische Gruppen nutzen KI auch, um mehrsprachige Propaganda und personalisierte Rekrutierungsbotschaften zu erstellen.
Das Problem geht über extremistische Propaganda hinaus. Die Internet Watch Foundation berichtete zum Beispiel über 20.000 KI-generierte Bilder von sexuellem Kindesmissbrauch in einem einzigen Dark-Web-Forum in einem Monat, was die weitreichenden Folgen des KI-Missbrauchs unterstreicht.
Hadley versicherte, dass es Mechanismen gibt, um diesen Trend zu stoppen: "Wir werden mit Microsoft zusammenarbeiten, um herauszufinden, ob es Möglichkeiten gibt, unser Materialarchiv zu nutzen, um eine Art KI-Erkennungssystem zu schaffen, um der aufkommenden Gefahr zu begegnen, dass KI in großem Umfang für terroristische Inhalte genutzt wird."
Hadley schlägt vor, dass ein solches Tool plattformübergreifend zur Verfügung gestellt werden könnte, so dass die Plattformen gegen problematische KI-generierte Inhalte vorgehen könnten, ohne eigene Tools entwickeln zu müssen.
Mehr über den Bericht
Die intelligenten Operationen von Tech Against Terrorism archivierten über 5.000 KI-generierte Inhalte, die von terroristischen und gewalttätigen extremistischen Akteuren (TVEs) genutzt werden. Sie betonen, dass dies nur einen kleinen Teil des Gesamtvolumens der jährlich ermittelten TVE-Inhalte ausmacht.
Die Bericht deckt in erster Linie Inhalte islamistischer und rechtsextremer Ideologien ab und zeigt einen besorgniserregenden Trend, dass TVEs generative KI für Propaganda nutzen.
Wichtigste Erkenntnisse und Bedenken
TVE-Netzwerke, die mit dem Islamischen Staat (IS), Al-Qaida-Anhängern und Neonazis verbunden sind, haben mit generativer KI experimentiert.
EBeispiele hierfür sind:
- Die technische Unterstützungsgruppe von IS veröffentlicht einen Leitfaden zur sicheren Nutzung von KI-Inhaltsgeneratoren.
- Neonazi-Messaging-Kanäle, die KI-generierte rassistische und antisemitische Bilder verbreiten.
- Rechtsextreme Propagandisten verwenden KI-generierte Bildwerkzeuge, um extremistische Meme zu erstellen.
- Pro-IS-Nutzer behaupten, KI für die Transkription und Übersetzung von IS-Propaganda eingesetzt zu haben.
- Al-Qaida-nahe Organisationen veröffentlichen von der KI erstellte Propagandaposter.
Potenzielle Risiken der generativen KI-Nutzung
Diesem Bericht zufolge:
- Laichen von Medien: Erzeugen von Varianten von Bildern oder Videos, um die Erkennung zu umgehen.
- Automatisierte mehrsprachige Übersetzung: Übersetzen von textbasierter Propaganda in mehrere Sprachen.
- Vollständig synthetische Propaganda: Erstellung künstlicher Inhalte, wie z. B. Reden und Bilder.
- Variantenreiches Recycling: Die Umgestaltung alter Propaganda in "neue" Versionen.
- Personalisierte Propaganda: Individuelle Botschaften für eine gezielte Anwerbung.
- Untergrabung der Moderation: Gestaltung von Inhalten zur Umgehung bestehender Moderationstechniken.
Chancen und Herausforderungen:
- Proaktive Lösungen und gemeinsame Anstrengungen, wie z. B. "Red-Teaming", sind erforderlich, um Risiken zu erkennen und zu mindern.
- Der Einsatz von KI in kleinem Maßstab durch TVE-Akteure ist ein Zeichen für eine aufkommende Bedrohung, die technische Lösungen und politische Entscheidungen erfordert.
Künftige Sorgen:
- Extremistische Gruppen werden wahrscheinlich weiterhin KI-Tools erforschen, um ihre Propagandastrategien zu verstärken.
- Inoffizielle gewalttätige Extremisten können KI-Instrumente aufgrund eines Mangels an Ressourcen und Originalmaterial aggressiver einsetzen.
Während das Risiko einer weit verbreiteten Übernahme generativer KI durch TVEs derzeit gering ist, deuten neue Muster auf eine wachsende Gefahr hin.
Deep Fakes und andere Formen der KI-gestützten Manipulation stellen ein dringendes Risiko dar, das Tech-Unternehmen nur schwer in den Griff bekommen.