Während in der Ukraine und im Nahen Osten Konflikte toben, ist das moderne Schlachtfeld zu einem Testfeld für die KI-gestützte Kriegsführung geworden.
Von autonomen Drohnen bis hin zu prädiktiven Targeting-Algorithmen - KI-Systeme verändern die Art bewaffneter Konflikte.
Die USA, die Ukraine, Russland, China, Israel und andere befinden sich in einem KI-Wettrüsten, bei dem jeder um die technologische Vorherrschaft in einer zunehmend instabilen geopolitischen Landschaft wetteifert.
In dem Maße, wie diese neuen Waffen und Taktiken auftauchen, werden auch ihre Folgen deutlich.
Wir stehen nun vor kritischen Fragen über die Zukunft der Kriegsführung, die menschliche Kontrolle und die Ethik der Auslagerung von Entscheidungen über Leben und Tod an Maschinen.
KI könnte militärische Eskalation bereits ausgelöst haben
Zurück im Jahr 2017, Projekt Maven war der erste Versuch des Pentagons, KI in militärische Operationen zu integrieren. Es soll die Identifizierung und Verfolgung von Zielen anhand von Drohnenaufnahmen in Echtzeit ohne menschliches Eingreifen ermöglichen.
Auch wenn Project Maven häufig im Zusammenhang mit der Analyse von Drohnenkamerabildern diskutiert wird, gehen seine Möglichkeiten wahrscheinlich viel weiter.
Nach Angaben der gemeinnützigen Überwachungsorganisation Die Forschung von Tech InquiryDas KI-System verarbeitet auch Daten von Satelliten, Radar, sozialen Medien und sogar erbeutete feindliche Objekte. Dieses breite Spektrum an Daten wird als "All-Source Intelligence" bezeichnet.
Im März 2023 kam es zu einem militärischen Zwischenfall, als eine US-amerikanische MQ-9 Reaper-Drohne über dem Schwarzen Meer mit einem russischen Kampfjet kollidierte und die Drohne zum Absturz brachte.
Kurz vor diesem Vorfall bestätigte die National Geospatial-Intelligence Agency (NGA) den Einsatz der Technologie von Project Maven in der Ukraine.
Generalleutnant Christopher T. Donahue, Kommandeur des XVIII. Luftlandekorps, später klar und deutlich gesagt über den Ukraine-Russland-Konflikt: "Letzten Endes wurde dies unser Labor".
Das Projekt Maven in der Ukraine umfasste fortschrittliche KI-Systeme, die in das Lynx-Radar mit synthetischer Apertur (SAR) der MQ-9 Reaper integriert waren. Somit könnte die KI bei der Drohnenkollision eine Rolle gespielt haben.
Daraufhin beriefen die USA den russischen Botschafter nach Washington ein, um ihre Einwände zum Ausdruck zu bringen, während das US European Command den Vorfall als "unsicher und unprofessionell" bezeichnete.
Russland bestritt, dass es zu einem Zusammenstoß gekommen sei. Daraufhin verlegten die USA einige unbemannte Flugzeuge zur Überwachung der Region, wogegen Russland protestierte.
In dieser Situation bestand die bedrohliche Möglichkeit, dass KI-Systeme militärische Entscheidungen beeinflussen und sogar zu unvorhergesehenen Eskalationen in militärischen Konflikten beitragen könnten.
Tech Inquiry fragt: "Es lohnt sich herauszufinden, ob Project Maven unbeabsichtigt zu einer der bedeutendsten militärischen Eskalationen unserer Zeit beigetragen hat."
Ethische Minenfelder
Die Leistung von Project Maven war bisher weitgehend uneinheitlich.
Nach Angaben von Bloomberg-Daten zitiert durch die Kiewer UnabhängigerBei der Verwendung verschiedener Arten von Bilddaten können Soldaten einen Panzer in 84% der Zeit korrekt identifizieren, während die KI von Project Maven eher bei 60% liegt, wobei die Zahl bei Schneefall auf 30% sinkt."
Während die ethischen Implikationen des Einsatzes von KI für Entscheidungen über Leben und Tod in der Kriegsführung zutiefst beunruhigend sind, bringt das Risiko von Fehlfunktionen einen noch beunruhigenderen Aspekt in dieses technologische Wettrüsten ein.
Es geht nicht nur um die Frage, ob wir KI zur Bekämpfung von Menschen einsetzen sollten, sondern auch darum, ob wir darauf vertrauen können, dass diese Systeme im Nebel des Krieges wie vorgesehen funktionieren.
Was passiert, wenn Zivilisten in der Nähe als Ziele markiert und autonom zerstört werden? Und was ist, wenn die Drohne selbst durchdreht und eine Fehlfunktion hat und in Umgebungen vordringt, für die sie nicht ausgebildet ist?
Eine KI-Fehlfunktion ist in diesem Zusammenhang nicht nur eine technische Panne - sie ist ein potenzieller Katalysator für eine Tragödie unvorstellbaren Ausmaßes. Im Gegensatz zu menschlichen Fehlern, die vielleicht nur ein begrenztes Ausmaß haben, könnte der Fehler eines KI-Systems innerhalb von Sekunden zu einem weit verbreiteten, wahllosen Gemetzel führen.
Verpflichtungen, diese Entwicklungen zu verlangsamen und die Waffen unter Verschluss zu halten, wurden bereits eingegangen, wie die folgenden Beispiele zeigen 30 Länder sind beigetreten US Leitplanken über KI-Militärtechnologie.
Das US-Verteidigungsministerium (DoD) veröffentlichte auch fünf "ethische Grundsätze für künstliche Intelligenz" für militärische Zwecke, einschließlich "Das DoD-Personal wird ein angemessenes Maß an Urteilsvermögen und Sorgfalt walten lassen, während es für die Entwicklung, den Einsatz und die Nutzung von KI-Fähigkeiten verantwortlich bleibt.
Die jüngsten Entwicklungen zeigen jedoch, dass zwischen diesen Grundsätzen und der Praxis eine Diskrepanz besteht.
Zum einen ist die KI-Technologie wahrscheinlich bereits für schwerwiegende Vorfälle verantwortlich, die nicht in ihren Zuständigkeitsbereich fallen. Zweitens beinhaltet die generative KI-Taskforce des Verteidigungsministeriums das Outsourcing an private Unternehmen wie Palantir, Microsoft und OpenAI.
Die Zusammenarbeit mit kommerziellen Unternehmen, die nicht der gleichen Aufsicht unterliegen wie Regierungsbehörden, lässt Zweifel an der Fähigkeit des Verteidigungsministeriums aufkommen, die KI-Entwicklung zu kontrollieren.
Unterdessen hat das Internationale Komitee vom Roten Kreuz (IKRK) eine Diskussionen über die Rechtmäßigkeit dieser Systemeinsbesondere in Bezug auf die Der Grundsatz der "Unterscheidung" der Genfer Konventiondie eine Unterscheidung zwischen Kombattanten und Zivilisten vorschreibt.
KI-Algorithmen sind nur so gut wie ihre Trainingsdaten und programmierten Regeln, so dass sie mit dieser Unterscheidung Schwierigkeiten haben könnten, insbesondere unter dynamischen und unvorhersehbaren Bedingungen auf dem Schlachtfeld.
Wie der Drohnenvorfall im Schwarzen Meer zeigt, sind diese Befürchtungen real. Dennoch sind militärische Führer weltweit weiterhin optimistisch, was KI-gestützte Kriegsmaschinen angeht.
Vor nicht allzu langer Zeit hat ein KI-gesteuerter F-16-Kampfjet bei einer Testvorführung menschliche Piloten überflügelt.
US-Luftwaffenminister Frank Kendall, der aus erster Hand erfahrenfasst die Trägheit in Bezug auf die KI-Militärtechnologie zusammen: "Es ist ein Sicherheitsrisiko, sie nicht zu haben. An diesem Punkt müssen wir sie haben".
Auf den ersten Blick ist das ein bitteres Eingeständnis.
Trotz Jahrtausenden der Kriegsführung und ihrer verheerenden Folgen setzt der bloße Gedanke, dem "Feind" einen Schritt voraus zu sein - diese Urangst, die vielleicht tief in unserer Psyche verwurzelt ist - weiterhin die Vernunft außer Kraft.
Selbstentwickelte KI-Waffen
In der Ukraine arbeiten junge Unternehmen wie Vyriy, Saker und Roboneers aktiv an der Entwicklung von Technologien, die die Grenze zwischen menschlichen und maschinellen Entscheidungen auf dem Schlachtfeld verwischen.
Saker entwickelte ein autonomes Zielsystem, das Ziele in einer Entfernung von bis zu 25 Meilen identifizieren und angreifen kann, während Roboneers einen ferngesteuerten Maschinengewehrturm entwickelte, der mit einem Game-Controller und einem Tablet bedient werden kann.
Über diesen neuen Stand der KI-gestützten modernen Kriegsführung berichtet die New York Times folgte kürzlich Oleksii Babenko, einem 25-jährigen CEO des Drohnenherstellers Vyriy, der die neueste Kreation seines Unternehmens vorstellte.
In einer realen Demonstration fuhr Babenko mit Vollgas auf einem Motorrad, während die Drohne ihn verfolgte, frei von menschlicher Kontrolle. Die Reporter verfolgten die Szene auf einem Laptop-Bildschirm.
Der fortschrittliche Quadrocopter erwischte ihn schließlich, und in den Worten der Reporter: "Wäre die Drohne mit Sprengstoff bewaffnet gewesen und hätten seine Kollegen die autonome Verfolgung nicht ausgeschaltet, wäre Herr Babenko tot gewesen."
Ähnlich wie in der Ukraine erweist sich auch der israelisch-palästinensische Konflikt als eine Brutstätte für militärische KI-Forschung.
Zu den experimentellen KI-gestützten oder halbautonomen Waffen gehören ferngesteuerte Quadcopter, die mit Maschinengewehren und Raketen bewaffnet sind, und die "Jaguarein halbautonomer Roboter, der für die Grenzpatrouille eingesetzt wird.
Das israelische Militär hat auch KI-gesteuerte Geschütztürme entwickelt, die entlang der Grenze zum Gazastreifen so genannte "automatische Tötungszonen" einrichten.
Am besorgniserregendsten für Menschenrechtsbeobachter sind vielleicht Israels automatische Zielerstellungssysteme. "Das Evangelium" dient der Ermittlung von Infrastrukturzielen, während "Lavendel" konzentriert sich auf die Erstellung von Listen einzelner menschlicher Zielpersonen.
Ein anderes System mit dem ominösen Namen "Wo ist Daddy?"wird Berichten zufolge verwendet, um mutmaßliche Militante aufzuspüren, wenn sie sich bei ihren Familien aufhalten.
Der linke israelische Nachrichtensender +972, der aus Tel Aviv berichtet, räumte ein, dass diese Systeme mit ziemlicher Sicherheit zu Opfern unter der Zivilbevölkerung geführt haben.
Der Weg nach vorn
Mit dem Fortschreiten der militärischen KI-Technologie wird die Zuweisung von Verantwortung für Fehler und Versagen zu einer unlösbaren Aufgabe - eine Spirale moralischer und ethischer Leere, in die wir bereits eingetreten sind.
Wie können wir eine Zukunft verhindern, in der das Töten mehr automatisiert als menschlich ist und die Verantwortlichkeit in einem algorithmischen Nebel untergeht?
Die aktuellen Ereignisse und die Rhetorik geben keinen Anlass zur Vorsicht.