{"id":4724,"date":"2023-08-27T20:07:21","date_gmt":"2023-08-27T20:07:21","guid":{"rendered":"https:\/\/dailyai.com\/?p=4724"},"modified":"2023-08-30T21:09:12","modified_gmt":"2023-08-30T21:09:12","slug":"ai-on-the-battlefield-who-is-responsible-if-it-goes-wrong","status":"publish","type":"post","link":"https:\/\/dailyai.com\/de\/2023\/08\/ai-on-the-battlefield-who-is-responsible-if-it-goes-wrong\/","title":{"rendered":"KI auf dem Schlachtfeld: Wer ist verantwortlich, wenn es schief geht?"},"content":{"rendered":"<p><strong>In einer Welt, in der sich \"Kriegsspiele\" nicht mehr nur auf Brettspiele oder Videospiele beziehen, sondern auf Szenarien, in denen es um Leben und Tod geht, die durch maschinelle Intelligenz erm\u00f6glicht werden, ist die Frage der Verantwortung von gro\u00dfer Bedeutung.<\/strong><\/p>\n<p><span style=\"font-weight: 400;\">Die Milit\u00e4rs verst\u00e4rken die Forschung und Investitionen in KI. <\/span><\/p>\n<p><span style=\"font-weight: 400;\">Einige Analysten bezeichneten die 11-t\u00e4gige israelisch-pal\u00e4stinensische Begegnung 2021 als die erste \"<a href=\"https:\/\/dailyai.com\/de\/2023\/07\/israel-deploys-advanced-ai-onto-the-battlefield\/\">KI-Krieg<\/a>, wo israelische Technologien zur Aufkl\u00e4rung und zum Einsatz auf dem Schlachtfeld beitrugen. <\/span><\/p>\n<p><span style=\"font-weight: 400;\">In den letzten Monaten,<\/span><span style=\"font-weight: 400;\">\u00a0t<\/span><span style=\"font-weight: 400;\">as US-Milit\u00e4r hat eine <\/span><a href=\"https:\/\/dailyai.com\/de\/2023\/08\/us-military-establishes-generative-ai-task-force\/\"><span style=\"font-weight: 400;\">Arbeitsgruppe f\u00fcr generative KI<\/span><\/a><span style=\"font-weight: 400;\"> und testete erfolgreich ein <\/span><a href=\"https:\/\/dailyai.com\/de\/2023\/08\/the-us-air-force-confirms-successful-ai-powered-test-flight\/\"><span style=\"font-weight: 400;\">autonomer KI-gesteuerter Jet<\/span><\/a><span style=\"font-weight: 400;\">.<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Die zunehmende Rolle der KI in der Kriegsf\u00fchrung wirft eine Reihe komplexer rechtlicher und ethischer Dilemmata auf, auf die wir noch keine Antwort gefunden haben, auch wenn KI-gest\u00fctzte Milit\u00e4rtechnologie bereits jetzt eingesetzt wird. <\/span><\/p>\n<h2><span style=\"font-weight: 400;\">Wer ist verantwortlich, wenn KI schief l\u00e4uft?<\/span><\/h2>\n<p><span style=\"font-weight: 400;\">Der Milit\u00e4rtechnikhersteller Rafael hat \"<a href=\"https:\/\/www.rafael.co.il\/worlds\/land\/multi-service-network-centric-warfare\/\">Feuerweber<\/a>\"ortet feindliche Positionen mit Hilfe von Sensoren und schl\u00e4gt die am besten platzierte Einheit zum Beschuss vor.\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400;\">In der Produktbeschreibung hei\u00dft es: \"Fire Weaver berechnet die Einsatzregeln und steuert das Zielen und Feuern, wobei f\u00fcr jedes erfasste Ziel der am besten geeignete Sch\u00fctze verwendet wird.\" <\/span><\/p>\n<p><span style=\"font-weight: 400;\">\"Berechnet\" ist hier das entscheidende Wort.\u00a0<\/span><span style=\"font-weight: 400;\">KI-Waffen k\u00f6nnen die Entscheidung, ein Ziel zu zerst\u00f6ren, auf eine bin\u00e4re Ja\/Nein-Entscheidung reduzieren. Was aber, wenn Fire Weaver ein Kind mit einem feindlichen Soldaten verwechselt? Oder einen humanit\u00e4ren Hilfstransporter anstelle eines feindlichen Fahrzeugs?<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Derzeit ist der Mangel an moralischer, ethischer und rechtlicher Klarheit eklatant. Die KI befindet sich in einem rechtlichen und ethischen Vakuum, was noch einige Zeit so bleiben k\u00f6nnte, da die Gesetzgebung notorisch langsam ist - und selten mit einer sich so schnell entwickelnden Technologie konfrontiert wird.\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400;\">In der Gesellschaft gibt es bereits viele Beispiele daf\u00fcr, dass die KI die Menschen und ihre Rechte gef\u00e4hrdet. Sie geben einen Einblick in die L\u00fccke in der Gesetzgebung und der Ethik, die durch die KI und ihre verschiedenen Anwendungen entstanden ist.\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Zum Beispiel, <\/span><a href=\"https:\/\/dailyai.com\/de\/2023\/06\/first-in-kind-libel-lawsuit-filed-against-openai\/\"><span style=\"font-weight: 400;\">ChatGPT angeblich<\/span><\/a><span style=\"font-weight: 400;\"> ein Mann aus Georgia, Mark Walters, wurde der Veruntreuung von Firmengeldern f\u00fcr schuldig befunden und der Juraprofessor Jonathan Turley der sexuellen N\u00f6tigung beschuldigt. ChatGPT war in beiden F\u00e4llen falsch.<\/span><\/p>\n<p><span style=\"font-weight: 400;\">In \u00e4hnlicher Weise haben Getty Images und mehrere K\u00fcnstler, Autoren und andere Kreative <a href=\"https:\/\/dailyai.com\/de\/2023\/07\/more-authors-attempt-to-sue-openai-for-using-copyright-material\/\">Urheberrechtsklagen<\/a> gegen Technologieunternehmen wegen der Verwendung von Trainingsdaten zur Erstellung ihrer Modelle.\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Die Trainingsdaten werden h\u00e4ufig von Drittanbietern wie Common Crawl und \"Schattenbibliotheken\" wie Bibliotik gesammelt, \u00e4hnlich wie bei Torrent-Sites wie PirateBay.\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Wer ist in diesem Fall f\u00fcr die Verletzung des Urheberrechts verantwortlich? Die KI-Entwickler oder die Herausgeber der Datens\u00e4tze? Es ist ein cartoonartiger Kreis der Verantwortung, in dem jede potenziell schuldige Partei auf die n\u00e4chste zeigt, und am Ende entkommen alle der Schuld.\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Diese unklare ethische Situation ist im Zusammenhang mit KI-Waffen und algorithmischen Milit\u00e4rtaktiken, wo die Berechnungen eines Modells buchst\u00e4blich \u00fcber Leben und Tod entscheiden k\u00f6nnen, noch viel riskanter.\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Milit\u00e4rische Organisationen sind sich des Paradigmenwechsels, den die KI-Waffen darstellen, bereits bewusst. Nach Angaben des Verteidigungsministeriums (DoD) ist die erste der f\u00fcnf \"<\/span><a href=\"https:\/\/www.ai.mil\/docs\/Ethical_Principles_for_Artificial_Intelligence.pdf\"><span style=\"font-weight: 400;\">ethische Grunds\u00e4tze f\u00fcr k\u00fcnstliche Intelligenz<\/span><\/a><span style=\"font-weight: 400;\">\"Der Begriff \"Verantwortlich\" f\u00fcr milit\u00e4rische Anwendungen ist definiert als: \"DoD-Personal wird ein angemessenes Ma\u00df an Urteilsverm\u00f6gen und Sorgfalt walten lassen, w\u00e4hrend es f\u00fcr die Entwicklung, den Einsatz und die Nutzung von KI-F\u00e4higkeiten verantwortlich bleibt.\"<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Das bedeutet, dass letztlich ein Mensch f\u00fcr die Handlungen der Maschine verantwortlich sein muss. Das Milit\u00e4r hat sich immer auf den Grundsatz gest\u00fctzt, dass jemand - in der Regel der Kommandeur oder ein Soldat - f\u00fcr die Handlungen im Krieg verantwortlich gemacht werden muss. Doch die Rolle der KI im Entscheidungsprozess wird immer undurchsichtiger.\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Die erste Frage ist, ob das Dr\u00fccken des \"Genehmigen\"-Buttons gleichbedeutend mit Schuld ist, wenn die KI immer ausgefeiltere Aufgaben bei der Zielerfassung, \u00dcberwachung und in anderen Bereichen \u00fcbernimmt.\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Wenn beispielsweise die Vorhersagen der KI nicht zutreffen und zivile Opfer zu beklagen sind, w\u00fcrde wohl kaum jemand akzeptieren, dass \"die Maschine\" die alleinige Schuld an einem Unfall tr\u00e4gt.\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Im Gegenzug kann es Situationen geben, in denen Menschen zu Unrecht f\u00fcr ihre Rolle bei einem Unfall verantwortlich gemacht werden, zu dem sie keinen Beitrag geleistet haben, was der Anthropologe M.C. Elish als \"<\/span><a href=\"https:\/\/estsjournal.org\/index.php\/ests\/article\/view\/260\"><span style=\"font-weight: 400;\">moralische Knautschzone<\/span><\/a><span style=\"font-weight: 400;\">.\"\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Elishs Untersuchungen von Industrie- und Maschinenunf\u00e4llen legen den Schluss nahe, dass der Mensch bei jedem Unfall die Schuld auf sich nimmt, auch wenn der Fehler bei der Maschine, dem Algorithmus oder dem Entscheidungstr\u00e4ger liegt, der die Technologie \u00fcberhaupt erst zugelassen hat.\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Sie st\u00fctzt sich dabei auf mehrere Beispiele aus dem wirklichen Leben, wie den Nuklearunfall in Three Mile Island, Pennsylvania, und den Absturz des Air-France-Fluges 447, die gr\u00f6\u00dftenteils auf \"menschliches Versagen\" zur\u00fcckgef\u00fchrt wurden und nicht auf eine kompliziertere Reihe von Fehlern, die auf mehrere Personen und Systeme verteilt waren.\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Zur Verantwortung im Zeitalter der KI sagt Elish: \"Im Hinblick auf autonome und robotische Technologien befinden sich die Vorschriften, Gesetze und Normen noch im Aufbau und k\u00f6nnen besonders anf\u00e4llig f\u00fcr Unsicherheiten oder sogar Umgehungen der Verantwortung sein.\"<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Dies wirft auch Fragen nach der Rolle demokratischer Prozesse in der Kriegsf\u00fchrung und der Souver\u00e4nit\u00e4t menschlicher Entscheidungen auf. Als der Vietnamkrieg in den amerikanischen Wohnzimmern ausgestrahlt wurde, beeinflusste die Unmittelbarkeit der Kriegsfolgen die \u00f6ffentliche Meinung und die Politik.\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Im Gegensatz dazu k\u00f6nnte ein KI-gest\u00fctzter Kampf die gesellschaftliche Kontrolle und das Gleichgewicht der \u00f6ffentlichen Meinung und des demokratischen Diskurses aufheben.<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Der Ethiker und Philosoph Thomas Metzinger unterstreicht, dass ethische Normen nicht nur rechtliche Konstrukte sind, sondern gesellschaftliche, die aus demokratischen Prozessen hervorgehen. <\/span><\/p>\n<p><span style=\"font-weight: 400;\">Wenn Algorithmen die Entscheidungen treffen, wird die menschliche Beteiligung - und damit die moralische Verantwortung - diffus und \u00fcberfl\u00fcssig.\u00a0<\/span><\/p>\n<h2><span style=\"font-weight: 400;\">Internationale rechtliche Auswirkungen von KI in der Kriegsf\u00fchrung<\/span><\/h2>\n<p><span style=\"font-weight: 400;\">Einer der Grundpfeiler der Genfer Konvention ist der Grundsatz der Unterscheidung zwischen Kombattanten und Zivilisten, der eine solche Unterscheidung vorschreibt.\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Die Technologie hat bereits bewiesen, dass sie die Versprechen eines verbesserten Schutzes der Zivilbev\u00f6lkerung nicht einhalten kann. Laut durchgesickerten Papieren der Obama-Regierung waren nur 10% der bei US-Drohnenangriffen get\u00f6teten Personen die beabsichtigten Ziele. <\/span><a href=\"https:\/\/theintercept.com\/drone-papers\/\"><span style=\"font-weight: 400;\">Das Intercept<\/span><\/a><span style=\"font-weight: 400;\">.\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400;\">KI-Algorithmen sind nur so gut wie die Daten, auf denen sie trainiert werden, und die Regeln, nach denen sie programmiert sind. In der Kriegsf\u00fchrung kann ein Algorithmus Daten aufgrund von \"Fog of War\", fehlerhaften Trainingsdaten oder absichtlichen T\u00e4uschungsman\u00f6vern des Feindes falsch interpretieren.\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Das Internationale Komitee vom Roten Kreuz (IKRK) hat eine Diskussion \u00fcber die Rechtm\u00e4\u00dfigkeit autonomer Waffensysteme im Rahmen des geltenden humanit\u00e4ren V\u00f6lkerrechts eingeleitet, doch gibt es nur wenige konkrete Definitionen.\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Sie stellen fest, dass die bestehenden Rahmenwerke f\u00fcr die neuen Herausforderungen der KI ungeeignet sind und die <\/span><a href=\"https:\/\/www.icrc.org\/en\/document\/artificial-intelligence-and-machine-learning-armed-conflict-human-centred-approach%C2%A0\"><span style=\"font-weight: 400;\">Die vom IKRK vorgeschlagenen Grunds\u00e4tze<\/span><\/a><span style=\"font-weight: 400;\"> sind vage; zum Beispiel: \"Unvorhersehbare autonome Waffensysteme sollten ausdr\u00fccklich ausgeschlossen werden\". <\/span><\/p>\n<p><span style=\"font-weight: 400;\">Wo setzen wir die Grenze f\u00fcr \"unvorhersehbar\", wenn ein winziger Fehler katastrophale Folgen haben kann?<\/span><\/p>\n<p><iframe loading=\"lazy\" title=\"Was sind die Gefahren von autonomen Waffen? | Die Gesetze des Krieges | IKRK\" width=\"1080\" height=\"608\" src=\"https:\/\/www.youtube.com\/embed\/8GwBTFRFlzA?feature=oembed\" frameborder=\"0\" allow=\"accelerometer; autoplay; clipboard-write; encrypted-media; gyroscope; picture-in-picture; web-share\" referrerpolicy=\"strict-origin-when-cross-origin\" allowfullscreen><\/iframe><\/p>\n<p><span style=\"font-weight: 400;\">Dar\u00fcber hinaus ver\u00e4ndert sich das Schlachtfeld st\u00e4ndig und wird \"Grenzf\u00e4lle\" aufweisen, also blinde Flecken, die beim KI-Training nicht ber\u00fccksichtigt werden. Die Entwicklung von KI-Systemen, die auf dynamische Umgebungsbedingungen mit der gleichen Reaktionszeit wie Menschen reagieren, ist \u00e4u\u00dferst schwierig.\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400;\">W\u00e4hrend KI-Waffen in typischen Gefechtsszenarien ihre Genauigkeit beibehalten k\u00f6nnen, was passiert, wenn die Umgebung von dem abweicht, was das Modell f\u00fcr die \"Grundwahrheit\" h\u00e4lt, oder wenn Sonderf\u00e4lle die Genauigkeit beeintr\u00e4chtigen?<\/span><\/p>\n<h2><span style=\"font-weight: 400;\">Erosion der moralischen Sensibilit\u00e4t<\/span><\/h2>\n<p><span style=\"font-weight: 400;\">Der Akt des T\u00f6tens in der Kriegsf\u00fchrung hat sich mit dem Aufkommen moderner milit\u00e4rischer Strategien und Taktiken stark ver\u00e4ndert.\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400;\">W\u00e4hrend des Ersten Weltkriegs wurden historische Analysen und Berichte wie S.L.A. Marshalls kontroverses Buch \"<\/span><a href=\"https:\/\/history.army.mil\/html\/books\/070\/70-64\/cmhPub_70-64.pdf\"><span style=\"font-weight: 400;\">M\u00e4nner gegen Feuer<\/span><\/a><span style=\"font-weight: 400;\">\" legen nahe, dass nur 15 bis 25% der Frontsoldaten ihre Waffen mit T\u00f6tungsabsicht abfeuerten.\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Heutzutage erlebt ein Soldat, der eine Drohne aus Tausenden von Kilometern Entfernung steuert, nicht die unmittelbaren emotionalen und psychologischen Auswirkungen seiner Handlungen, was sich in einem allgemein geringeren Auftreten von PTBS und anderen psychischen Problemen im Vergleich zu denjenigen zeigt, die im Feld dienen.<\/span><\/p>\n<p><span style=\"font-weight: 400;\"> Das Design der Milit\u00e4rtechnologie selbst hat sich an neue Paradigmen der \"Fernkriegsf\u00fchrung\" angepasst. Die f\u00fcr Drohnen verwendeten Steuerungen sind durch ihre \u00c4hnlichkeit mit Videospiel-Controllern aufgefallen, eine Designwahl, die m\u00f6glicherweise nicht zuf\u00e4llig ist.<\/span><\/p>\n<p><span style=\"font-weight: 400;\">KI-Operateure k\u00f6nnen Entscheidungen \u00fcber Leben und Tod in einer Umgebung treffen, die die Realit\u00e4t des Krieges in Datenpunkte und Bilder auf einem Bildschirm abstrahiert, wodurch die<\/span><span style=\"font-weight: 400;\"> die letzten moralischen Verbindungen, die wir mit dem Leben derer haben, die in den Konflikt verwickelt sind.\u00a0<\/span><\/p>\n<h2><span style=\"font-weight: 400;\">Wie geht es jetzt weiter?<\/span><\/h2>\n<p><span style=\"font-weight: 400;\">W\u00e4hrend sich die milit\u00e4rische KI zu etwas entwickelt, was viele ernsthaft bef\u00fcrchten, wird die Verantwortung f\u00fcr Fehler und Versagen auf eine einzelne Person abgew\u00e4lzt, <\/span><span style=\"font-weight: 400;\">Entwickler, Organisationen oder ganze Gruppen sind unwahrscheinlich.\u00a0<\/span><\/p>\n<p>Wer oder was bleibt dann in der Verantwortung? H<span style=\"font-weight: 400;\">ie k\u00f6nnen wir verhindern, dass wir in eine Zukunft eintreten, in der das T\u00f6ten mehr maschinell als menschlich ist und in der sich die ethische Verantwortung in algorithmischen Abstraktionen aufl\u00f6st?\u00a0<\/span><\/p>\n<p>Mit der Zeit werden immer intelligentere k\u00fcnstliche Systeme wahrscheinlich das Gef\u00fcge von Ethik und Verantwortung ver\u00e4ndern, insbesondere wenn sie Anzeichen von Empfindungsverm\u00f6gen oder Bewusstsein zeigen.<\/p>\n<p>Aber das sagt noch nichts dar\u00fcber aus, wie diese Situation in der Gegenwart gehandhabt wird, und wie bei so vielen Dingen in der Welt der KI gibt es mehr Fragen als Antworten.<\/p>","protected":false},"excerpt":{"rendered":"<p>In einer Welt, in der sich \"Kriegsspiele\" nicht mehr nur auf Brettspiele oder Videospiele beziehen, sondern auf Szenarien, in denen es um Leben und Tod geht, die durch maschinelle Intelligenz erm\u00f6glicht werden, ist die Frage der Verantwortung von gro\u00dfer Bedeutung. Die Milit\u00e4rs verst\u00e4rken die Forschung und Investitionen in KI. Einige Analysten bezeichneten die 11-t\u00e4gige israelisch-pal\u00e4stinensische Begegnung im Jahr 2021 als den ersten \"KI-Krieg\", bei dem israelische Technologien bei der Aufkl\u00e4rung und dem Einsatz auf dem Schlachtfeld halfen. In den letzten Monaten richtete das US-Milit\u00e4r eine generative KI-Taskforce ein und testete erfolgreich einen autonomen KI-gesteuerten Jet. Die zunehmende Rolle der KI in der Kriegsf\u00fchrung wirft eine Reihe komplexer rechtlicher und ethischer Dilemmata auf, die wir noch nicht gel\u00f6st haben, obwohl<\/p>","protected":false},"author":2,"featured_media":4726,"comment_status":"closed","ping_status":"open","sticky":false,"template":"","format":"standard","meta":{"footnotes":""},"categories":[87],"tags":[163,302,346,294,277,348,347,345],"class_list":["post-4724","post","type-post","status-publish","format-standard","has-post-thumbnail","hentry","category-opinions","tag-ai-risks","tag-ai-weapons","tag-battlefield","tag-darpa","tag-drones","tag-ethics","tag-palantir","tag-war"],"yoast_head":"<!-- This site is optimized with the Yoast SEO plugin v27.4 - https:\/\/yoast.com\/product\/yoast-seo-wordpress\/ -->\n<title>AI on the battlefield: who is responsible if it goes wrong? | DailyAI<\/title>\n<meta name=\"description\" content=\"In a world where &quot;war games&quot; no longer refer solely to board games or video games but to life-and-death scenarios facilitated by machine intelligence, the question of ethical responsibility is monumental.\" \/>\n<meta name=\"robots\" content=\"index, follow, max-snippet:-1, max-image-preview:large, max-video-preview:-1\" \/>\n<link rel=\"canonical\" href=\"https:\/\/dailyai.com\/de\/2023\/08\/ai-on-the-battlefield-who-is-responsible-if-it-goes-wrong\/\" \/>\n<meta property=\"og:locale\" content=\"de_DE\" \/>\n<meta property=\"og:type\" content=\"article\" \/>\n<meta property=\"og:title\" content=\"AI on the battlefield: who is responsible if it goes wrong? | DailyAI\" \/>\n<meta property=\"og:description\" content=\"In a world where &quot;war games&quot; no longer refer solely to board games or video games but to life-and-death scenarios facilitated by machine intelligence, the question of ethical responsibility is monumental.\" \/>\n<meta property=\"og:url\" content=\"https:\/\/dailyai.com\/de\/2023\/08\/ai-on-the-battlefield-who-is-responsible-if-it-goes-wrong\/\" \/>\n<meta property=\"og:site_name\" content=\"DailyAI\" \/>\n<meta property=\"article:published_time\" content=\"2023-08-27T20:07:21+00:00\" \/>\n<meta property=\"article:modified_time\" content=\"2023-08-30T21:09:12+00:00\" \/>\n<meta property=\"og:image\" content=\"https:\/\/dailyai.com\/wp-content\/uploads\/2023\/08\/shutterstock_2143842119.jpg\" \/>\n\t<meta property=\"og:image:width\" content=\"1000\" \/>\n\t<meta property=\"og:image:height\" content=\"667\" \/>\n\t<meta property=\"og:image:type\" content=\"image\/jpeg\" \/>\n<meta name=\"author\" content=\"Sam Jeans\" \/>\n<meta name=\"twitter:card\" content=\"summary_large_image\" \/>\n<meta name=\"twitter:creator\" content=\"@DailyAIOfficial\" \/>\n<meta name=\"twitter:site\" content=\"@DailyAIOfficial\" \/>\n<meta name=\"twitter:label1\" content=\"Verfasst von\" \/>\n\t<meta name=\"twitter:data1\" content=\"Sam Jeans\" \/>\n\t<meta name=\"twitter:label2\" content=\"Gesch\u00e4tzte Lesezeit\" \/>\n\t<meta name=\"twitter:data2\" content=\"7\u00a0Minuten\" \/>\n<script type=\"application\/ld+json\" class=\"yoast-schema-graph\">{\"@context\":\"https:\\\/\\\/schema.org\",\"@graph\":[{\"@type\":\"NewsArticle\",\"@id\":\"https:\\\/\\\/dailyai.com\\\/2023\\\/08\\\/ai-on-the-battlefield-who-is-responsible-if-it-goes-wrong\\\/#article\",\"isPartOf\":{\"@id\":\"https:\\\/\\\/dailyai.com\\\/2023\\\/08\\\/ai-on-the-battlefield-who-is-responsible-if-it-goes-wrong\\\/\"},\"author\":{\"name\":\"Sam Jeans\",\"@id\":\"https:\\\/\\\/dailyai.com\\\/#\\\/schema\\\/person\\\/711e81f945549438e8bbc579efdeb3c9\"},\"headline\":\"AI on the battlefield: who is responsible if it goes wrong?\",\"datePublished\":\"2023-08-27T20:07:21+00:00\",\"dateModified\":\"2023-08-30T21:09:12+00:00\",\"mainEntityOfPage\":{\"@id\":\"https:\\\/\\\/dailyai.com\\\/2023\\\/08\\\/ai-on-the-battlefield-who-is-responsible-if-it-goes-wrong\\\/\"},\"wordCount\":1414,\"publisher\":{\"@id\":\"https:\\\/\\\/dailyai.com\\\/#organization\"},\"image\":{\"@id\":\"https:\\\/\\\/dailyai.com\\\/2023\\\/08\\\/ai-on-the-battlefield-who-is-responsible-if-it-goes-wrong\\\/#primaryimage\"},\"thumbnailUrl\":\"https:\\\/\\\/dailyai.com\\\/wp-content\\\/uploads\\\/2023\\\/08\\\/shutterstock_2143842119.jpg\",\"keywords\":[\"AI risks\",\"AI weapons\",\"Battlefield\",\"DARPA\",\"Drones\",\"Ethics\",\"Palantir\",\"War\"],\"articleSection\":[\"Opinions &amp; Analysis\"],\"inLanguage\":\"de\"},{\"@type\":\"WebPage\",\"@id\":\"https:\\\/\\\/dailyai.com\\\/2023\\\/08\\\/ai-on-the-battlefield-who-is-responsible-if-it-goes-wrong\\\/\",\"url\":\"https:\\\/\\\/dailyai.com\\\/2023\\\/08\\\/ai-on-the-battlefield-who-is-responsible-if-it-goes-wrong\\\/\",\"name\":\"AI on the battlefield: who is responsible if it goes wrong? | DailyAI\",\"isPartOf\":{\"@id\":\"https:\\\/\\\/dailyai.com\\\/#website\"},\"primaryImageOfPage\":{\"@id\":\"https:\\\/\\\/dailyai.com\\\/2023\\\/08\\\/ai-on-the-battlefield-who-is-responsible-if-it-goes-wrong\\\/#primaryimage\"},\"image\":{\"@id\":\"https:\\\/\\\/dailyai.com\\\/2023\\\/08\\\/ai-on-the-battlefield-who-is-responsible-if-it-goes-wrong\\\/#primaryimage\"},\"thumbnailUrl\":\"https:\\\/\\\/dailyai.com\\\/wp-content\\\/uploads\\\/2023\\\/08\\\/shutterstock_2143842119.jpg\",\"datePublished\":\"2023-08-27T20:07:21+00:00\",\"dateModified\":\"2023-08-30T21:09:12+00:00\",\"description\":\"In a world where \\\"war games\\\" no longer refer solely to board games or video games but to life-and-death scenarios facilitated by machine intelligence, the question of ethical responsibility is monumental.\",\"breadcrumb\":{\"@id\":\"https:\\\/\\\/dailyai.com\\\/2023\\\/08\\\/ai-on-the-battlefield-who-is-responsible-if-it-goes-wrong\\\/#breadcrumb\"},\"inLanguage\":\"de\",\"potentialAction\":[{\"@type\":\"ReadAction\",\"target\":[\"https:\\\/\\\/dailyai.com\\\/2023\\\/08\\\/ai-on-the-battlefield-who-is-responsible-if-it-goes-wrong\\\/\"]}]},{\"@type\":\"ImageObject\",\"inLanguage\":\"de\",\"@id\":\"https:\\\/\\\/dailyai.com\\\/2023\\\/08\\\/ai-on-the-battlefield-who-is-responsible-if-it-goes-wrong\\\/#primaryimage\",\"url\":\"https:\\\/\\\/dailyai.com\\\/wp-content\\\/uploads\\\/2023\\\/08\\\/shutterstock_2143842119.jpg\",\"contentUrl\":\"https:\\\/\\\/dailyai.com\\\/wp-content\\\/uploads\\\/2023\\\/08\\\/shutterstock_2143842119.jpg\",\"width\":1000,\"height\":667,\"caption\":\"War crimes\"},{\"@type\":\"BreadcrumbList\",\"@id\":\"https:\\\/\\\/dailyai.com\\\/2023\\\/08\\\/ai-on-the-battlefield-who-is-responsible-if-it-goes-wrong\\\/#breadcrumb\",\"itemListElement\":[{\"@type\":\"ListItem\",\"position\":1,\"name\":\"Home\",\"item\":\"https:\\\/\\\/dailyai.com\\\/\"},{\"@type\":\"ListItem\",\"position\":2,\"name\":\"AI on the battlefield: who is responsible if it goes wrong?\"}]},{\"@type\":\"WebSite\",\"@id\":\"https:\\\/\\\/dailyai.com\\\/#website\",\"url\":\"https:\\\/\\\/dailyai.com\\\/\",\"name\":\"DailyAI\",\"description\":\"Your Daily Dose of AI News\",\"publisher\":{\"@id\":\"https:\\\/\\\/dailyai.com\\\/#organization\"},\"potentialAction\":[{\"@type\":\"SearchAction\",\"target\":{\"@type\":\"EntryPoint\",\"urlTemplate\":\"https:\\\/\\\/dailyai.com\\\/?s={search_term_string}\"},\"query-input\":{\"@type\":\"PropertyValueSpecification\",\"valueRequired\":true,\"valueName\":\"search_term_string\"}}],\"inLanguage\":\"de\"},{\"@type\":\"Organization\",\"@id\":\"https:\\\/\\\/dailyai.com\\\/#organization\",\"name\":\"DailyAI\",\"url\":\"https:\\\/\\\/dailyai.com\\\/\",\"logo\":{\"@type\":\"ImageObject\",\"inLanguage\":\"de\",\"@id\":\"https:\\\/\\\/dailyai.com\\\/#\\\/schema\\\/logo\\\/image\\\/\",\"url\":\"https:\\\/\\\/dailyai.com\\\/wp-content\\\/uploads\\\/2023\\\/06\\\/Daily-Ai_TL_colour.png\",\"contentUrl\":\"https:\\\/\\\/dailyai.com\\\/wp-content\\\/uploads\\\/2023\\\/06\\\/Daily-Ai_TL_colour.png\",\"width\":4501,\"height\":934,\"caption\":\"DailyAI\"},\"image\":{\"@id\":\"https:\\\/\\\/dailyai.com\\\/#\\\/schema\\\/logo\\\/image\\\/\"},\"sameAs\":[\"https:\\\/\\\/x.com\\\/DailyAIOfficial\",\"https:\\\/\\\/www.linkedin.com\\\/company\\\/dailyaiofficial\\\/\",\"https:\\\/\\\/www.youtube.com\\\/@DailyAIOfficial\"]},{\"@type\":\"Person\",\"@id\":\"https:\\\/\\\/dailyai.com\\\/#\\\/schema\\\/person\\\/711e81f945549438e8bbc579efdeb3c9\",\"name\":\"Sam Jeans\",\"image\":{\"@type\":\"ImageObject\",\"inLanguage\":\"de\",\"@id\":\"https:\\\/\\\/secure.gravatar.com\\\/avatar\\\/a24a4a8f8e2a1a275b7491dc9c9f032c401eabf23c3206da4628dc84b6dac5c8?s=96&d=robohash&r=g\",\"url\":\"https:\\\/\\\/secure.gravatar.com\\\/avatar\\\/a24a4a8f8e2a1a275b7491dc9c9f032c401eabf23c3206da4628dc84b6dac5c8?s=96&d=robohash&r=g\",\"contentUrl\":\"https:\\\/\\\/secure.gravatar.com\\\/avatar\\\/a24a4a8f8e2a1a275b7491dc9c9f032c401eabf23c3206da4628dc84b6dac5c8?s=96&d=robohash&r=g\",\"caption\":\"Sam Jeans\"},\"description\":\"Sam is a science and technology writer who has worked in various AI startups. When he\u2019s not writing, he can be found reading medical journals or digging through boxes of vinyl records.\",\"sameAs\":[\"https:\\\/\\\/www.linkedin.com\\\/in\\\/sam-jeans-6746b9142\\\/\"],\"url\":\"https:\\\/\\\/dailyai.com\\\/de\\\/author\\\/samjeans\\\/\"}]}<\/script>\n<!-- \/ Yoast SEO plugin. -->","yoast_head_json":{"title":"KI auf dem Schlachtfeld: Wer ist verantwortlich, wenn es schief geht? | DailyAI","description":"In einer Welt, in der sich \"Kriegsspiele\" nicht mehr nur auf Brettspiele oder Videospiele beziehen, sondern auf Szenarien, in denen es um Leben und Tod geht, die durch maschinelle Intelligenz erm\u00f6glicht werden, ist die Frage der ethischen Verantwortung von gro\u00dfer Bedeutung.","robots":{"index":"index","follow":"follow","max-snippet":"max-snippet:-1","max-image-preview":"max-image-preview:large","max-video-preview":"max-video-preview:-1"},"canonical":"https:\/\/dailyai.com\/de\/2023\/08\/ai-on-the-battlefield-who-is-responsible-if-it-goes-wrong\/","og_locale":"de_DE","og_type":"article","og_title":"AI on the battlefield: who is responsible if it goes wrong? | DailyAI","og_description":"In a world where \"war games\" no longer refer solely to board games or video games but to life-and-death scenarios facilitated by machine intelligence, the question of ethical responsibility is monumental.","og_url":"https:\/\/dailyai.com\/de\/2023\/08\/ai-on-the-battlefield-who-is-responsible-if-it-goes-wrong\/","og_site_name":"DailyAI","article_published_time":"2023-08-27T20:07:21+00:00","article_modified_time":"2023-08-30T21:09:12+00:00","og_image":[{"width":1000,"height":667,"url":"https:\/\/dailyai.com\/wp-content\/uploads\/2023\/08\/shutterstock_2143842119.jpg","type":"image\/jpeg"}],"author":"Sam Jeans","twitter_card":"summary_large_image","twitter_creator":"@DailyAIOfficial","twitter_site":"@DailyAIOfficial","twitter_misc":{"Verfasst von":"Sam Jeans","Gesch\u00e4tzte Lesezeit":"7\u00a0Minuten"},"schema":{"@context":"https:\/\/schema.org","@graph":[{"@type":"NewsArticle","@id":"https:\/\/dailyai.com\/2023\/08\/ai-on-the-battlefield-who-is-responsible-if-it-goes-wrong\/#article","isPartOf":{"@id":"https:\/\/dailyai.com\/2023\/08\/ai-on-the-battlefield-who-is-responsible-if-it-goes-wrong\/"},"author":{"name":"Sam Jeans","@id":"https:\/\/dailyai.com\/#\/schema\/person\/711e81f945549438e8bbc579efdeb3c9"},"headline":"AI on the battlefield: who is responsible if it goes wrong?","datePublished":"2023-08-27T20:07:21+00:00","dateModified":"2023-08-30T21:09:12+00:00","mainEntityOfPage":{"@id":"https:\/\/dailyai.com\/2023\/08\/ai-on-the-battlefield-who-is-responsible-if-it-goes-wrong\/"},"wordCount":1414,"publisher":{"@id":"https:\/\/dailyai.com\/#organization"},"image":{"@id":"https:\/\/dailyai.com\/2023\/08\/ai-on-the-battlefield-who-is-responsible-if-it-goes-wrong\/#primaryimage"},"thumbnailUrl":"https:\/\/dailyai.com\/wp-content\/uploads\/2023\/08\/shutterstock_2143842119.jpg","keywords":["AI risks","AI weapons","Battlefield","DARPA","Drones","Ethics","Palantir","War"],"articleSection":["Opinions &amp; Analysis"],"inLanguage":"de"},{"@type":"WebPage","@id":"https:\/\/dailyai.com\/2023\/08\/ai-on-the-battlefield-who-is-responsible-if-it-goes-wrong\/","url":"https:\/\/dailyai.com\/2023\/08\/ai-on-the-battlefield-who-is-responsible-if-it-goes-wrong\/","name":"KI auf dem Schlachtfeld: Wer ist verantwortlich, wenn es schief geht? | DailyAI","isPartOf":{"@id":"https:\/\/dailyai.com\/#website"},"primaryImageOfPage":{"@id":"https:\/\/dailyai.com\/2023\/08\/ai-on-the-battlefield-who-is-responsible-if-it-goes-wrong\/#primaryimage"},"image":{"@id":"https:\/\/dailyai.com\/2023\/08\/ai-on-the-battlefield-who-is-responsible-if-it-goes-wrong\/#primaryimage"},"thumbnailUrl":"https:\/\/dailyai.com\/wp-content\/uploads\/2023\/08\/shutterstock_2143842119.jpg","datePublished":"2023-08-27T20:07:21+00:00","dateModified":"2023-08-30T21:09:12+00:00","description":"In einer Welt, in der sich \"Kriegsspiele\" nicht mehr nur auf Brettspiele oder Videospiele beziehen, sondern auf Szenarien, in denen es um Leben und Tod geht, die durch maschinelle Intelligenz erm\u00f6glicht werden, ist die Frage der ethischen Verantwortung von gro\u00dfer Bedeutung.","breadcrumb":{"@id":"https:\/\/dailyai.com\/2023\/08\/ai-on-the-battlefield-who-is-responsible-if-it-goes-wrong\/#breadcrumb"},"inLanguage":"de","potentialAction":[{"@type":"ReadAction","target":["https:\/\/dailyai.com\/2023\/08\/ai-on-the-battlefield-who-is-responsible-if-it-goes-wrong\/"]}]},{"@type":"ImageObject","inLanguage":"de","@id":"https:\/\/dailyai.com\/2023\/08\/ai-on-the-battlefield-who-is-responsible-if-it-goes-wrong\/#primaryimage","url":"https:\/\/dailyai.com\/wp-content\/uploads\/2023\/08\/shutterstock_2143842119.jpg","contentUrl":"https:\/\/dailyai.com\/wp-content\/uploads\/2023\/08\/shutterstock_2143842119.jpg","width":1000,"height":667,"caption":"War crimes"},{"@type":"BreadcrumbList","@id":"https:\/\/dailyai.com\/2023\/08\/ai-on-the-battlefield-who-is-responsible-if-it-goes-wrong\/#breadcrumb","itemListElement":[{"@type":"ListItem","position":1,"name":"Home","item":"https:\/\/dailyai.com\/"},{"@type":"ListItem","position":2,"name":"AI on the battlefield: who is responsible if it goes wrong?"}]},{"@type":"WebSite","@id":"https:\/\/dailyai.com\/#website","url":"https:\/\/dailyai.com\/","name":"DailyAI","description":"Ihre t\u00e4gliche Dosis an AI-Nachrichten","publisher":{"@id":"https:\/\/dailyai.com\/#organization"},"potentialAction":[{"@type":"SearchAction","target":{"@type":"EntryPoint","urlTemplate":"https:\/\/dailyai.com\/?s={search_term_string}"},"query-input":{"@type":"PropertyValueSpecification","valueRequired":true,"valueName":"search_term_string"}}],"inLanguage":"de"},{"@type":"Organization","@id":"https:\/\/dailyai.com\/#organization","name":"DailyAI","url":"https:\/\/dailyai.com\/","logo":{"@type":"ImageObject","inLanguage":"de","@id":"https:\/\/dailyai.com\/#\/schema\/logo\/image\/","url":"https:\/\/dailyai.com\/wp-content\/uploads\/2023\/06\/Daily-Ai_TL_colour.png","contentUrl":"https:\/\/dailyai.com\/wp-content\/uploads\/2023\/06\/Daily-Ai_TL_colour.png","width":4501,"height":934,"caption":"DailyAI"},"image":{"@id":"https:\/\/dailyai.com\/#\/schema\/logo\/image\/"},"sameAs":["https:\/\/x.com\/DailyAIOfficial","https:\/\/www.linkedin.com\/company\/dailyaiofficial\/","https:\/\/www.youtube.com\/@DailyAIOfficial"]},{"@type":"Person","@id":"https:\/\/dailyai.com\/#\/schema\/person\/711e81f945549438e8bbc579efdeb3c9","name":"Sam Jeans","image":{"@type":"ImageObject","inLanguage":"de","@id":"https:\/\/secure.gravatar.com\/avatar\/a24a4a8f8e2a1a275b7491dc9c9f032c401eabf23c3206da4628dc84b6dac5c8?s=96&d=robohash&r=g","url":"https:\/\/secure.gravatar.com\/avatar\/a24a4a8f8e2a1a275b7491dc9c9f032c401eabf23c3206da4628dc84b6dac5c8?s=96&d=robohash&r=g","contentUrl":"https:\/\/secure.gravatar.com\/avatar\/a24a4a8f8e2a1a275b7491dc9c9f032c401eabf23c3206da4628dc84b6dac5c8?s=96&d=robohash&r=g","caption":"Sam Jeans"},"description":"Sam ist ein Wissenschafts- und Technologiewissenschaftler, der in verschiedenen KI-Startups gearbeitet hat. Wenn er nicht gerade schreibt, liest er medizinische Fachzeitschriften oder kramt in Kisten mit Schallplatten.","sameAs":["https:\/\/www.linkedin.com\/in\/sam-jeans-6746b9142\/"],"url":"https:\/\/dailyai.com\/de\/author\/samjeans\/"}]}},"_links":{"self":[{"href":"https:\/\/dailyai.com\/de\/wp-json\/wp\/v2\/posts\/4724","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/dailyai.com\/de\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/dailyai.com\/de\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/dailyai.com\/de\/wp-json\/wp\/v2\/users\/2"}],"replies":[{"embeddable":true,"href":"https:\/\/dailyai.com\/de\/wp-json\/wp\/v2\/comments?post=4724"}],"version-history":[{"count":21,"href":"https:\/\/dailyai.com\/de\/wp-json\/wp\/v2\/posts\/4724\/revisions"}],"predecessor-version":[{"id":4773,"href":"https:\/\/dailyai.com\/de\/wp-json\/wp\/v2\/posts\/4724\/revisions\/4773"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/dailyai.com\/de\/wp-json\/wp\/v2\/media\/4726"}],"wp:attachment":[{"href":"https:\/\/dailyai.com\/de\/wp-json\/wp\/v2\/media?parent=4724"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/dailyai.com\/de\/wp-json\/wp\/v2\/categories?post=4724"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/dailyai.com\/de\/wp-json\/wp\/v2\/tags?post=4724"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}