Drohnen, die über KI-Fähigkeiten verfügen, identifizieren und bekämpfen jetzt autonom Ziele in der Ukraine.
Laut einer Bericht des New Scientistist es fast sicher, dass die Drohnenangriffe töten russische Soldaten ohne direkten Befehl oder ohne Aufsicht durch einen menschlichen Bediener, obwohl es keine offiziellen Daten gibt.
Der wichtigste Akteur in dieser Entwicklung ist der Saker Scout Quadcopter, der kürzlich in der Ukraine in Dienst gestellt wurde.
Diese Drohne kann eine 3 Kilogramm schwere Nutzlast über eine Strecke von etwa 12 Kilometern transportieren. Solche ferngesteuerten Drohnen haben sich im aktuellen Konflikt zwischen Russland und der Ukraine bewährt. Dieses besonders schwergewichtige Modell stellt selbst für schwer gepanzerte Panzer eine Gefahr dar.
Saker, ein ukrainisches Unternehmen, das 2021 gegründet wurde, wollte ursprünglich erschwingliche KI-Lösungen für kleine Unternehmen anbieten, insbesondere KI-gesteuerte Sichtsysteme für Drohnen in Bereichen wie der Landwirtschaft.
Doch mit dem Einmarsch Russlands ging das Unternehmen dazu über, das Militär zu unterstützen. Ihre KI-Vision-Plattform erkennt jetzt etwa 64 verschiedene Arten von "militärischen Objekten", darunter Fahrzeuge und andere Hardware, wie ein Unternehmenssprecher mitteilte.
Trotz der autonomen Fähigkeiten des Saker Scout kann er auch manuell gesteuert werden. Im manuellen Modus zeigt die KI Ziele an und prüft, um was es sich handelt, bevor sie zuschlägt. Die Drohne ist in das ukrainische Aufklärungssystem Delta integriert, das Daten aus verschiedenen Luft- und Satellitenquellen aufnimmt, um ein ganzheitliches Bild des Schlachtfelds zu erstellen.
Außerdem verfügt die Drohne über zwei autonome Funktionen. Sie kann entweder zu Aufklärungszwecken in eine Region geschickt werden oder "angewiesen werden, selbstständig Ziele zu finden und anzugreifen".
Wie der Sprecher gegenüber New Scientist mitteilte, ist der Saker Scout bereits im autonomen Modus im Einsatz gewesen, was den Einsatz autonomer Militärtechnologie auf dem Schlachtfeld unterstreicht - etwas, das viele befürchten.
Der Sprecher betonte, dass der autonome Einsatz der Drohne nicht so narrensicher ist wie die Beteiligung eines menschlichen Bedieners, dass aber die KI ihre Effektivität unter Beweis gestellt hat und dass es nicht nötig war, zu warten, bis sie perfekt ist".
Mykhailo Fedorov, der ukrainische Minister für digitale Transformation, kommentierte die sich entwickelnde Dynamik der Kriegsführung mit dem Hinweis, dass autonome Waffen eine "logische und unvermeidliche" Weiterentwicklung der Drohnentechnologie darstellen.
Paul Scharre vom Center for a New American Security kommentierte die Allgegenwärtigkeit dieser Technologie mit den Worten: "Bildklassifizierer gibt es seit mindestens 10 Jahren, und diese Art von Software kann leicht heruntergeladen und mit geeigneten Daten trainiert werden."
Er äußerte auch Bedenken hinsichtlich der Neigung der Drohnen, Ziele falsch zu identifizieren: "Die bisher demonstrierten Systeme haben ein gewisses Maß an Fehlalarmen, was zu erwarten ist".
Behörden auf der ganzen Welt, darunter auch die UNO, beraten seit Jahren über Regulierungsmaßnahmen für autonome Waffen.
In einem UN-Bericht aus dem Jahr 2021 wird der mögliche Einsatz von autonomen Kampfdrohnen in Libyen im Jahr 2020 angedeutet, doch bleibt dies unbegründet. Derzeit gibt es keine detaillierten Rechtsvorschriften für den Einsatz von autonomen Waffen.
Das US-Verteidigungsministerium (DoD) hat fünf "ethische Grundsätze für künstliche IntelligenzDas DoD-Personal wird ein angemessenes Maß an Urteilsvermögen und Sorgfalt walten lassen und gleichzeitig für die Entwicklung, den Einsatz und die Nutzung von KI-Fähigkeiten verantwortlich bleiben.
Regeln wie diese signalisieren zwar die Absicht, KI-Waffen zu kontrollieren, sind aber ohne solide Definitionen von Begriffen wie "angemessenes Maß an Urteilsvermögen und Sorgfalt" äußerst subjektiv.
In diesem Zusammenhang stellt Scharre fest: "Ein zentrales Merkmal der Debatte war die Fähigkeit solcher Waffen, das Kriegsrecht einzuhalten und zivile Opfer zu vermeiden."
Ethische Zwistigkeiten
Autonome Waffen posieren zahlreiche ethische Fragen.
Wer ist verantwortlich, wenn sie schief gehen? Was passiert, wenn sie "Ziele" falsch identifizieren, was möglicherweise zu Opfern unter der Zivilbevölkerung führt? Und, vielleicht am dystopischsten, was passiert, wenn sich KI-Waffen gegen ihre Betreiber wenden oder abtrünnig werden?
Bislang sind diese Technologien noch selten, und wir haben nur begrenzte Nachweise für ihre Sicherheit.
Während der offene Kriegsschauplatz in der Ukraine nur ein geringes Risiko für die Zivilbevölkerung darstellt, ist dies an anderen Orten mit mehr Menschenansammlungen, wie z. B. in Palästina, möglicherweise nicht der Fall.
Die wachsende Rolle der KI auf dem Schlachtfeld ist vielleicht unvermeidlich, denn die Technologie verspricht intelligente, skalierbare und kosteneffiziente Operationen, die das Personal der einen Seite nicht gefährden.