KI auf dem Schlachtfeld: Wer ist verantwortlich, wenn es schief geht?

27. August 2023
Kriegsverbrechen

In einer Welt, in der sich "Kriegsspiele" nicht mehr nur auf Brettspiele oder Videospiele beziehen, sondern auf Szenarien, in denen es um Leben und Tod geht, die durch maschinelle Intelligenz ermöglicht werden, ist die Frage der Verantwortung von großer Bedeutung.

Die Militärs verstärken die Forschung und Investitionen in KI.

Einige Analysten bezeichneten die 11-tägige israelisch-palästinensische Begegnung 2021 als die erste "KI-Krieg, wo israelische Technologien zur Aufklärung und zum Einsatz auf dem Schlachtfeld beitrugen.

In den letzten Monaten, tas US-Militär hat eine Arbeitsgruppe für generative KI und testete erfolgreich ein autonomer KI-gesteuerter Jet.

Die zunehmende Rolle der KI in der Kriegsführung wirft eine Reihe komplexer rechtlicher und ethischer Dilemmata auf, auf die wir noch keine Antwort gefunden haben, auch wenn KI-gestützte Militärtechnologie bereits jetzt eingesetzt wird.

Wer ist verantwortlich, wenn KI schief läuft?

Der Militärtechnikhersteller Rafael hat "Feuerweber"ortet feindliche Positionen mit Hilfe von Sensoren und schlägt die am besten platzierte Einheit zum Beschuss vor. 

In der Produktbeschreibung heißt es: "Fire Weaver berechnet die Einsatzregeln und steuert das Zielen und Feuern, wobei für jedes erfasste Ziel der am besten geeignete Schütze verwendet wird."

"Berechnet" ist hier das entscheidende Wort. KI-Waffen können die Entscheidung, ein Ziel zu zerstören, auf eine binäre Ja/Nein-Entscheidung reduzieren. Was aber, wenn Fire Weaver ein Kind mit einem feindlichen Soldaten verwechselt? Oder einen humanitären Hilfstransporter anstelle eines feindlichen Fahrzeugs?

Derzeit ist der Mangel an moralischer, ethischer und rechtlicher Klarheit eklatant. Die KI befindet sich in einem rechtlichen und ethischen Vakuum, was noch einige Zeit so bleiben könnte, da die Gesetzgebung notorisch langsam ist - und selten mit einer sich so schnell entwickelnden Technologie konfrontiert wird. 

In der Gesellschaft gibt es bereits viele Beispiele dafür, dass die KI die Menschen und ihre Rechte gefährdet. Sie geben einen Einblick in die Lücke in der Gesetzgebung und der Ethik, die durch die KI und ihre verschiedenen Anwendungen entstanden ist. 

Zum Beispiel, ChatGPT angeblich ein Mann aus Georgia, Mark Walters, wurde der Veruntreuung von Firmengeldern für schuldig befunden und der Juraprofessor Jonathan Turley der sexuellen Nötigung beschuldigt. ChatGPT war in beiden Fällen falsch.

In ähnlicher Weise haben Getty Images und mehrere Künstler, Autoren und andere Kreative Urheberrechtsklagen gegen Technologieunternehmen wegen der Verwendung von Trainingsdaten zur Erstellung ihrer Modelle. 

Die Trainingsdaten werden häufig von Drittanbietern wie Common Crawl und "Schattenbibliotheken" wie Bibliotik gesammelt, ähnlich wie bei Torrent-Sites wie PirateBay. 

Wer ist in diesem Fall für die Verletzung des Urheberrechts verantwortlich? Die KI-Entwickler oder die Herausgeber der Datensätze? Es ist ein cartoonartiger Kreis der Verantwortung, in dem jede potenziell schuldige Partei auf die nächste zeigt, und am Ende entkommen alle der Schuld. 

Diese unklare ethische Situation ist im Zusammenhang mit KI-Waffen und algorithmischen Militärtaktiken, wo die Berechnungen eines Modells buchstäblich über Leben und Tod entscheiden können, noch viel riskanter. 

Militärische Organisationen sind sich des Paradigmenwechsels, den die KI-Waffen darstellen, bereits bewusst. Nach Angaben des Verteidigungsministeriums (DoD) ist die erste der fünf "ethische Grundsätze für künstliche Intelligenz"Der Begriff "Verantwortlich" für militärische Anwendungen ist definiert als: "DoD-Personal wird ein angemessenes Maß an Urteilsvermögen und Sorgfalt walten lassen, während es für die Entwicklung, den Einsatz und die Nutzung von KI-Fähigkeiten verantwortlich bleibt."

Das bedeutet, dass letztlich ein Mensch für die Handlungen der Maschine verantwortlich sein muss. Das Militär hat sich immer auf den Grundsatz gestützt, dass jemand - in der Regel der Kommandeur oder ein Soldat - für die Handlungen im Krieg verantwortlich gemacht werden muss. Doch die Rolle der KI im Entscheidungsprozess wird immer undurchsichtiger. 

Die erste Frage ist, ob das Drücken des "Genehmigen"-Buttons gleichbedeutend mit Schuld ist, wenn die KI immer ausgefeiltere Aufgaben bei der Zielerfassung, Überwachung und in anderen Bereichen übernimmt. 

Wenn beispielsweise die Vorhersagen der KI nicht zutreffen und zivile Opfer zu beklagen sind, würde wohl kaum jemand akzeptieren, dass "die Maschine" die alleinige Schuld an einem Unfall trägt. 

Im Gegenzug kann es Situationen geben, in denen Menschen zu Unrecht für ihre Rolle bei einem Unfall verantwortlich gemacht werden, zu dem sie keinen Beitrag geleistet haben, was der Anthropologe M.C. Elish als "moralische Knautschzone." 

Elishs Untersuchungen von Industrie- und Maschinenunfällen legen den Schluss nahe, dass der Mensch bei jedem Unfall die Schuld auf sich nimmt, auch wenn der Fehler bei der Maschine, dem Algorithmus oder dem Entscheidungsträger liegt, der die Technologie überhaupt erst zugelassen hat. 

Sie stützt sich dabei auf mehrere Beispiele aus dem wirklichen Leben, wie den Nuklearunfall in Three Mile Island, Pennsylvania, und den Absturz des Air-France-Fluges 447, die größtenteils auf "menschliches Versagen" zurückgeführt wurden und nicht auf eine kompliziertere Reihe von Fehlern, die auf mehrere Personen und Systeme verteilt waren. 

Zur Verantwortung im Zeitalter der KI sagt Elish: "Im Hinblick auf autonome und robotische Technologien befinden sich die Vorschriften, Gesetze und Normen noch im Aufbau und können besonders anfällig für Unsicherheiten oder sogar Umgehungen der Verantwortung sein."

Dies wirft auch Fragen nach der Rolle demokratischer Prozesse in der Kriegsführung und der Souveränität menschlicher Entscheidungen auf. Als der Vietnamkrieg in den amerikanischen Wohnzimmern ausgestrahlt wurde, beeinflusste die Unmittelbarkeit der Kriegsfolgen die öffentliche Meinung und die Politik. 

Im Gegensatz dazu könnte ein KI-gestützter Kampf die gesellschaftliche Kontrolle und das Gleichgewicht der öffentlichen Meinung und des demokratischen Diskurses aufheben.

Der Ethiker und Philosoph Thomas Metzinger unterstreicht, dass ethische Normen nicht nur rechtliche Konstrukte sind, sondern gesellschaftliche, die aus demokratischen Prozessen hervorgehen.

Wenn Algorithmen die Entscheidungen treffen, wird die menschliche Beteiligung - und damit die moralische Verantwortung - diffus und überflüssig. 

Internationale rechtliche Auswirkungen von KI in der Kriegsführung

Einer der Grundpfeiler der Genfer Konvention ist der Grundsatz der Unterscheidung zwischen Kombattanten und Zivilisten, der eine solche Unterscheidung vorschreibt. 

Die Technologie hat bereits bewiesen, dass sie die Versprechen eines verbesserten Schutzes der Zivilbevölkerung nicht einhalten kann. Laut durchgesickerten Papieren der Obama-Regierung waren nur 10% der bei US-Drohnenangriffen getöteten Personen die beabsichtigten Ziele. Das Intercept

KI-Algorithmen sind nur so gut wie die Daten, auf denen sie trainiert werden, und die Regeln, nach denen sie programmiert sind. In der Kriegsführung kann ein Algorithmus Daten aufgrund von "Fog of War", fehlerhaften Trainingsdaten oder absichtlichen Täuschungsmanövern des Feindes falsch interpretieren. 

Das Internationale Komitee vom Roten Kreuz (IKRK) hat eine Diskussion über die Rechtmäßigkeit autonomer Waffensysteme im Rahmen des geltenden humanitären Völkerrechts eingeleitet, doch gibt es nur wenige konkrete Definitionen. 

Sie stellen fest, dass die bestehenden Rahmenwerke für die neuen Herausforderungen der KI ungeeignet sind und die Die vom IKRK vorgeschlagenen Grundsätze sind vage; zum Beispiel: "Unvorhersehbare autonome Waffensysteme sollten ausdrücklich ausgeschlossen werden".

Wo setzen wir die Grenze für "unvorhersehbar", wenn ein winziger Fehler katastrophale Folgen haben kann?

Darüber hinaus verändert sich das Schlachtfeld ständig und wird "Grenzfälle" aufweisen, also blinde Flecken, die beim KI-Training nicht berücksichtigt werden. Die Entwicklung von KI-Systemen, die auf dynamische Umgebungsbedingungen mit der gleichen Reaktionszeit wie Menschen reagieren, ist äußerst schwierig. 

Während KI-Waffen in typischen Gefechtsszenarien ihre Genauigkeit beibehalten können, was passiert, wenn die Umgebung von dem abweicht, was das Modell für die "Grundwahrheit" hält, oder wenn Sonderfälle die Genauigkeit beeinträchtigen?

Erosion der moralischen Sensibilität

Der Akt des Tötens in der Kriegsführung hat sich mit dem Aufkommen moderner militärischer Strategien und Taktiken stark verändert. 

Während des Ersten Weltkriegs wurden historische Analysen und Berichte wie S.L.A. Marshalls kontroverses Buch "Männer gegen Feuer" legen nahe, dass nur 15 bis 25% der Frontsoldaten ihre Waffen mit Tötungsabsicht abfeuerten. 

Heutzutage erlebt ein Soldat, der eine Drohne aus Tausenden von Kilometern Entfernung steuert, nicht die unmittelbaren emotionalen und psychologischen Auswirkungen seiner Handlungen, was sich in einem allgemein geringeren Auftreten von PTBS und anderen psychischen Problemen im Vergleich zu denjenigen zeigt, die im Feld dienen.

Das Design der Militärtechnologie selbst hat sich an neue Paradigmen der "Fernkriegsführung" angepasst. Die für Drohnen verwendeten Steuerungen sind durch ihre Ähnlichkeit mit Videospiel-Controllern aufgefallen, eine Designwahl, die möglicherweise nicht zufällig ist.

KI-Operateure können Entscheidungen über Leben und Tod in einer Umgebung treffen, die die Realität des Krieges in Datenpunkte und Bilder auf einem Bildschirm abstrahiert, wodurch die die letzten moralischen Verbindungen, die wir mit dem Leben derer haben, die in den Konflikt verwickelt sind. 

Wie geht es jetzt weiter?

Während sich die militärische KI zu etwas entwickelt, was viele ernsthaft befürchten, wird die Verantwortung für Fehler und Versagen auf eine einzelne Person abgewälzt, Entwickler, Organisationen oder ganze Gruppen sind unwahrscheinlich. 

Wer oder was bleibt dann in der Verantwortung? Hie können wir verhindern, dass wir in eine Zukunft eintreten, in der das Töten mehr maschinell als menschlich ist und in der sich die ethische Verantwortung in algorithmischen Abstraktionen auflöst? 

Mit der Zeit werden immer intelligentere künstliche Systeme wahrscheinlich das Gefüge von Ethik und Verantwortung verändern, insbesondere wenn sie Anzeichen von Empfindungsvermögen oder Bewusstsein zeigen.

Aber das sagt noch nichts darüber aus, wie diese Situation in der Gegenwart gehandhabt wird, und wie bei so vielen Dingen in der Welt der KI gibt es mehr Fragen als Antworten.

Join The Future


HEUTE ABONNIEREN

Klar, prägnant, umfassend. Behalten Sie den Überblick über KI-Entwicklungen mit DailyAI

Sam Jeans

Sam ist ein Wissenschafts- und Technologiewissenschaftler, der in verschiedenen KI-Startups gearbeitet hat. Wenn er nicht gerade schreibt, liest er medizinische Fachzeitschriften oder kramt in Kisten mit Schallplatten.

×
 
 

KOSTENLOSES PDF EXKLUSIV
Mit DailyAI immer einen Schritt voraus


 

Melden Sie sich für unseren wöchentlichen Newsletter an und erhalten Sie exklusiven Zugang zum neuesten eBook von DailyAI: 'Mastering AI Tools: Ihr Leitfaden für mehr Produktivität im Jahr 2024".



 
 

*Mit der Anmeldung zu unserem Newsletter akzeptieren Sie unsere Datenschutzbestimmungen und unsere Bedingungen und Konditionen