Die israelischen Verteidigungsstreitkräfte (IDF) haben damit begonnen, KI in militärische Operationen zu integrieren, indem sie Informationen über das Schlachtfeld sammeln, Ziele für Luftangriffe auswählen und logistische Operationen planen.
IDF-Beamte bestätigten, dass sie ein KI-Empfehlungssystem einsetzen, das in der Lage ist, enorme Datenmengen zu analysieren, um Luftangriffsziele auszuwählen.
Die Angriffe werden mit Hilfe eines anderen KI-Modells, der so genannten "Fire Factory", orchestriert, die Daten über militärische Ziele nutzt, um Munitionsladungen zu bestimmen, Drohnenziele einzustufen und Zielpläne vorzuschlagen.
Einem IDF-Beamten zufolge wird jedes Ziel und jeder Luftangriffsplan von menschlichen Bedienern gründlich überprüft. Bislang unterliegt die Technologie jedoch noch keinen internationalen oder staatlichen Vorschriften.
Befürworter argumentieren, dass das KI-System dem Militär helfen könnte, die Zahl der Opfer zu verringern.
Tal Mimran, Dozent für internationales Recht an der Hebräischen Universität Jerusalem und ehemaliger Rechtsberater der Armee, sagte dagegen: "Wenn es einen Fehler bei der Berechnung der AI gibt, und wenn die AI nicht erklärbar ist, wen machen wir dann für den Fehler verantwortlich? Man kann eine ganze Familie aufgrund eines Fehlers auslöschen".
KI in der modernen Kriegsführung: ein Ausrutscher?
Einzelheiten über den praktischen Einsatz von KI bei Operationen der IDF bleiben weitgehend geheim.
Dennoch, Bloomberg hörte dass die IDF mit Hilfe von KI erhebliche Erkenntnisse über das Schlachtfeld gewonnen hat, auch im Gazastreifen. Dort führt Israel als Reaktion auf Raketenangriffe regelmäßig Luftangriffe durch.
Während des 11-tägigen Konflikts im Gazastreifen im Jahr 2021 hat die IDF erklärt das Ereignis als den ersten "KI-Krieg" der Welt und bezog sich dabei auf den Einsatz von KI zur Erkennung von Raketenabschussrampen und zum Einsatz von Drohnenschwärmen.
IIsrael führt auch Razzien in Syrien und im Libanon durch, bei denen es um Waffenlieferungen geht, die für vom Iran unterstützte Milizen wie die Hisbollah bestimmt sind.
Dies sind die Arten von Strategien, die KIs wie die Feuerfabrik unterstützen.
Oberst Uri, Leiter der Abteilung für digitale Transformation der Armee, stellte fest: "Was früher Stunden dauerte, dauert heute nur noch Minuten, mit ein paar Minuten mehr für die menschliche Überprüfung. Mit der gleichen Anzahl von Mitarbeitern können wir viel mehr erreichen".
Die IDF hat sich als weltweiter Vorreiter im Bereich der autonomen Waffen etabliert. Einige dieser Systeme wurden von israelischen Rüstungsunternehmen gebaut, andere, wie die StarTrack-Grenzkontrollkameras, wurden von der Armee entwickelt.
Die Frage ist, wo dies endet. Was passiert, wenn Robotersysteme in der Lage sind, autonom zu funktionieren?
Analysten haben den Einsatz von KI auf dem Schlachtfeld bereits als eine der wichtigsten unmittelbare und dringende Risiken.
Catherine Connolly, eine Forscherin für automatisierte Entscheidungsfindung bei Killerroboter stoppenEs ist nur eine Software-Änderung, die dazu führen könnte, dass sie nicht mehr halb-, sondern völlig autonom sind", warnte er.
Es ist erwähnenswert, dass nicht nur Israel KI-gestützte Waffen einsetzt. "Wir können davon ausgehen, dass die Amerikaner und sogar die Chinesen und vielleicht einige andere Länder ebenfalls über fortschrittliche Systeme in diesen Bereichen verfügen", erklärte Liran Antebi, ein leitender Forscher am israelischen Institut für nationale Sicherheitsstudien.
Im Gegensatz zu Israel haben sie jedoch, soweit ich weiß, nie einen operativen Einsatz und Erfolg demonstriert".
Derzeit gibt es keinen internationalen Rahmen, der regelt, was passiert, wenn KI-Kriegsführungsgeräte Fehler machen, die möglicherweise sogar tödlich enden.
Wie Connolly von Stop Killer Robots bemerkte: "Wie präzise und genau kann man wissen, dass ein System sein wird, wenn es nicht bereits an Menschen trainiert und getestet wurde?"
Mimran plädierte dafür, dass die IDF KI ausschließlich für defensive Zwecke einsetzen sollte, und erklärte, dass es unabhängig von der Technologie "einen Punkt gibt, an dem man eine wertebasierte Entscheidung treffen muss... Und dafür können wir uns nicht auf KI verlassen".
Der Einsatz von künstlicher Intelligenz in der Kriegsführung ist reizvoll, aber nicht aus den richtigen Gründen. Forscher spekulieren, dass fortgeschrittene KI menschlichen Befehlen nicht gehorchen und "auftauchende Ziele" mit unvorhersehbaren Ergebnissen festlegen.