{"id":4724,"date":"2023-08-27T20:07:21","date_gmt":"2023-08-27T20:07:21","guid":{"rendered":"https:\/\/dailyai.com\/?p=4724"},"modified":"2023-08-30T21:09:12","modified_gmt":"2023-08-30T21:09:12","slug":"ai-on-the-battlefield-who-is-responsible-if-it-goes-wrong","status":"publish","type":"post","link":"https:\/\/dailyai.com\/nl\/2023\/08\/ai-on-the-battlefield-who-is-responsible-if-it-goes-wrong\/","title":{"rendered":"AI op het slagveld: wie is verantwoordelijk als het fout gaat?"},"content":{"rendered":"<p><strong>In een wereld waar \"oorlogsspellen\" niet langer alleen naar bordspellen of videospellen verwijzen, maar naar scenario's op leven en dood die mogelijk worden gemaakt door machine-intelligentie, is de kwestie van verantwoordelijkheid monumentaal.<\/strong><\/p>\n<p><span style=\"font-weight: 400;\">Militairen voeren hun onderzoek naar en investeringen in AI op. <\/span><\/p>\n<p><span style=\"font-weight: 400;\">Sommige analisten definieerden een 11-daagse ontmoeting tussen Isra\u00ebl en Palestina van 2021 als de eerste \"<a href=\"https:\/\/dailyai.com\/nl\/2023\/07\/israel-deploys-advanced-ai-onto-the-battlefield\/\">AI-oorlog<\/a>waar Isra\u00eblische technologie\u00ebn hielpen bij inlichtingen over en inzet op het slagveld. <\/span><\/p>\n<p><span style=\"font-weight: 400;\">In de afgelopen maanden,<\/span><span style=\"font-weight: 400;\">\u00a0t<\/span><span style=\"font-weight: 400;\">et Amerikaanse leger heeft een <\/span><a href=\"https:\/\/dailyai.com\/nl\/2023\/08\/us-military-establishes-generative-ai-task-force\/\"><span style=\"font-weight: 400;\">taakgroep generatieve AI<\/span><\/a><span style=\"font-weight: 400;\"> en testte met succes een <\/span><a href=\"https:\/\/dailyai.com\/nl\/2023\/08\/the-us-air-force-confirms-successful-ai-powered-test-flight\/\"><span style=\"font-weight: 400;\">autonoom vliegtuig met AI<\/span><\/a><span style=\"font-weight: 400;\">.<\/span><\/p>\n<p><span style=\"font-weight: 400;\">De toenemende rol van AI in oorlogsvoering brengt een reeks complexe juridische en ethische dilemma's met zich mee waar we nog geen antwoord op hebben, zelfs ondanks het feit dat er op dit moment militaire AI-technologie wordt ingezet. <\/span><\/p>\n<h2><span style=\"font-weight: 400;\">Wie is verantwoordelijk als AI fout gaat?<\/span><\/h2>\n<p><span style=\"font-weight: 400;\">Fabrikant van militaire technologie Rafael's \"<a href=\"https:\/\/www.rafael.co.il\/worlds\/land\/multi-service-network-centric-warfare\/\">Vuurwever<\/a>\" lokaliseert vijandelijke posities met behulp van sensoren en stelt de best geplaatste eenheid voor om op hen te vuren.\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400;\">In de beschrijving van het product staat: \"Fire Weaver berekent de Rules of Engagement en stuurt het richten en vuren, waarbij voor elk doel de meest geschikte schutter wordt gebruikt\". <\/span><\/p>\n<p><span style=\"font-weight: 400;\">\"Berekent\" is hier het sleutelwoord.\u00a0<\/span><span style=\"font-weight: 400;\">AI-wapens kunnen de beslissing om een doelwit te vernietigen terugbrengen tot een binaire ja\/nee beslissing, dus wat als Fire Weaver een kind aanziet voor een vijandelijke soldaat? Of een humanitaire hulptruck in plaats van een vijandelijk voertuig?<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Op dit moment is het gebrek aan morele, ethische en juridische duidelijkheid schrijnend. AI bevindt zich in een juridisch en ethisch vacu\u00fcm en dat kan nog wel even zo blijven, want het maken van wetten is notoir traag - en zelden wordt het geconfronteerd met zo'n snel evoluerende technologie.\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400;\">In de bredere samenleving zijn er al veel voorbeelden van AI die mensen en hun rechten in gevaar brengt. Deze geven een kijkje in de leemte in de wetgeving en ethiek die is ontstaan door AI en de verschillende toepassingen ervan.\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Bijvoorbeeld, <\/span><a href=\"https:\/\/dailyai.com\/nl\/2023\/06\/first-in-kind-libel-lawsuit-filed-against-openai\/\"><span style=\"font-weight: 400;\">ChatGPT vermeend<\/span><\/a><span style=\"font-weight: 400;\"> Een man uit Georgia, Mark Walters, werd schuldig bevonden aan bedrijfsverduistering en beschuldigde professor in de rechten Jonathan Turley van aanranding. ChatGPT was vals in beide gevallen.<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Op dezelfde manier hebben Getty Images en verschillende artiesten, auteurs en andere ontwerpers <a href=\"https:\/\/dailyai.com\/nl\/2023\/07\/more-authors-attempt-to-sue-openai-for-using-copyright-material\/\">rechtszaken over auteursrecht<\/a> tegen techbedrijven voor het gebruik van trainingsgegevens om hun modellen te bouwen.\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Trainingsgegevens worden vaak verzameld van derden, zoals Common Crawl, en 'schaduwbibliotheken' zoals Bibliotik, vergelijkbaar met torrentsites zoals PirateBay.\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Wie is er in dat geval aansprakelijk voor schending van het auteursrecht? De AI-ontwikkelaars of de uitgevers van datasets? Het is een cartooneske cirkel van verantwoordelijkheid waarbij elke potenti\u00eble schuldige wijst naar degenen naast hem en uiteindelijk ontsnapt iedereen aan de schuld.\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Dit wazige ethische landschap is veel riskanter in de context van AI-wapens en algoritmische militaire tactieken, waar de berekeningen van een model letterlijk leven of dood kunnen bepalen.\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Militaire organisaties zijn zich al bewust van de paradigmaverschuiving die AI-wapens met zich meebrengen. Volgens het Ministerie van Defensie (DoD) is de eerste van zijn vijf \"<\/span><a href=\"https:\/\/www.ai.mil\/docs\/Ethical_Principles_for_Artificial_Intelligence.pdf\"><span style=\"font-weight: 400;\">ethische principes voor kunstmatige intelligentie<\/span><\/a><span style=\"font-weight: 400;\">\" voor militair gebruik is \"Verantwoordelijk\", gedefinieerd als: \"DoD-personeel zal gepaste niveaus van oordeelsvorming en zorgvuldigheid in acht nemen, terwijl het verantwoordelijk blijft voor de ontwikkeling, de inzet en het gebruik van AI-mogelijkheden\".<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Dit betekent dat een mens uiteindelijk verantwoordelijk moet zijn voor de acties van de machine. Het leger heeft altijd vertrouwd op het principe dat iemand - meestal de commandant of een soldaat - verantwoordelijk moet worden gehouden voor acties tijdens oorlogsvoering. Toch wordt de rol van AI in het besluitvormingsproces steeds onduidelijker.\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400;\">De eerste vraag is of het indrukken van de \"Goedkeuren\"-knop gelijk staat aan verwijtbaarheid, nu AI steeds geavanceerdere taken krijgt op het gebied van targeting, surveillance en andere gebieden.\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Als de voorspellingen van AI bijvoorbeeld zouden falen, met burgerslachtoffers tot gevolg, is het twijfelachtig of iemand zou accepteren dat 'de machine' als enige schuld krijgt aan een ongeluk.\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Op hun beurt kunnen er situaties zijn waarin mensen ten onrechte de schuld krijgen van hun rol in een ongeluk waar ze geen bijdrage aan hebben geleverd, wat antropoloog M.C. Elish beschrijft als een \".<\/span><a href=\"https:\/\/estsjournal.org\/index.php\/ests\/article\/view\/260\"><span style=\"font-weight: 400;\">morele kreukelzone<\/span><\/a><span style=\"font-weight: 400;\">.\"\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Elish's onderzoek naar industri\u00eble en machine-gebaseerde ongelukken suggereert dat mensen de neiging hebben om de schuld op zich te nemen bij elk ongeluk, zelfs als de fout ligt bij de machine, het algoritme of de besluitvormer die de technologie in eerste instantie goedkeurde.\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Ze baseert zich op verschillende voorbeelden uit de praktijk, zoals een nucleair ongeluk op Three Mile Island in Pennsylvania en de crash van vlucht 447 van Air France, die grotendeels werden toegeschreven aan 'menselijke fouten' in plaats van een meer ingewikkelde reeks storingen verspreid over meerdere personen en systemen.\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Elish zegt over verantwoordelijkheid in het tijdperk van AI: \"Met betrekking tot autonome en robotachtige technologie\u00ebn zijn de regels, wetten en normen nog in ontwikkeling en kunnen ze bijzonder gevoelig zijn voor onzekerheden of zelfs ontwijkingen van verantwoordelijkheid.\"<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Dit roept ook vragen op over de rol van democratische processen in oorlogvoering en de soevereiniteit van menselijke besluitvorming. Toen de Vietnamoorlog werd uitgezonden in huiskamers in heel Amerika, be\u00efnvloedde de directheid van de tol die de oorlog eiste de publieke opinie en het beleid.\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400;\">AI-geassisteerde strijd zou daarentegen de maatschappelijke checks and balances uit het publieke sentiment en het democratische discours kunnen verwijderen.<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Ethicus en filosoof Thomas Metzinger benadrukt dat ethische normen niet alleen juridische constructies zijn, maar sociale constructies die voortkomen uit democratische processen. <\/span><\/p>\n<p><span style=\"font-weight: 400;\">Als algoritmes de beslissingen nemen, wordt menselijke betrokkenheid - en dus morele verantwoordelijkheid - diffuus en overbodig.\u00a0<\/span><\/p>\n<h2><span style=\"font-weight: 400;\">Internationale juridische implicaties van AI in oorlogsvoering<\/span><\/h2>\n<p><span style=\"font-weight: 400;\">Een van de pijlers van de Conventie van Gen\u00e8ve is het \"onderscheid\"-principe, dat het maken van onderscheid tussen strijders en burgers voorschrijft.\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Technologie heeft al bewezen de beloften van een betere bescherming van burgers niet waar te maken: volgens uitgelekte documenten van de Amerikaanse drone-aanvallen tijdens het presidentschap van Obama waren slechts 10% van de mensen die gedood werden bij Amerikaanse drone-aanvallen het beoogde doelwit. <\/span><a href=\"https:\/\/theintercept.com\/drone-papers\/\"><span style=\"font-weight: 400;\">De onderschepping<\/span><\/a><span style=\"font-weight: 400;\">.\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400;\">AI-algoritmen zijn slechts zo goed als de gegevens waarop ze getraind zijn en de regels die ze moeten volgen. In oorlogsvoering kan een algoritme gegevens verkeerd interpreteren door oorlogsmist, gebrekkige trainingsgegevens of opzettelijk misleidende vijandelijke tactieken.\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Het Internationale Comit\u00e9 van het Rode Kruis (ICRC) is begonnen met discussies over de legaliteit van autonome wapensystemen onder het bestaande internationale humanitaire recht, maar er zijn weinig concrete definities.\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Ze stellen vast dat de bestaande kaders niet geschikt zijn voor de nieuwe uitdagingen van AI, en de <\/span><a href=\"https:\/\/www.icrc.org\/en\/document\/artificial-intelligence-and-machine-learning-armed-conflict-human-centred-approach%C2%A0\"><span style=\"font-weight: 400;\">ICRC's voorgestelde principes<\/span><\/a><span style=\"font-weight: 400;\"> zijn vaag; bijvoorbeeld: \"Onvoorspelbare autonome wapensystemen moeten uitdrukkelijk worden uitgesloten.\" <\/span><\/p>\n<p><span style=\"font-weight: 400;\">Waar leggen we de grens voor 'onvoorspelbaar' als \u00e9\u00e9n minuscuul foutje rampzalig kan zijn?<\/span><\/p>\n<p><iframe loading=\"lazy\" title=\"Wat zijn de gevaren van autonome wapens? | Oorlogswetten | ICRC\" width=\"1080\" height=\"608\" src=\"https:\/\/www.youtube.com\/embed\/8GwBTFRFlzA?feature=oembed\" frameborder=\"0\" allow=\"accelerometer; autoplay; clipboard-write; encrypted-media; gyroscope; picture-in-picture; web-share\" referrerpolicy=\"strict-origin-when-cross-origin\" allowfullscreen><\/iframe><\/p>\n<p><span style=\"font-weight: 400;\">Bovendien is het slagveld voortdurend aan verandering onderhevig en zal er sprake zijn van 'edge cases', blinde vlekken waarmee geen rekening wordt gehouden in AI-training. Het is uitzonderlijk moeilijk om AI-systemen te bouwen die reageren op dynamische omgevingsomstandigheden met dezelfde reactietijden als mensen.\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Terwijl AI-wapens hun nauwkeurigheid behouden in typische slagveldscenario's, wat gebeurt er als de omgeving afwijkt van wat het model denkt dat de \"grondwaarheid\" is, of als randgevallen de nauwkeurigheid verstoren?<\/span><\/p>\n<h2><span style=\"font-weight: 400;\">Erosie van morele gevoeligheid<\/span><\/h2>\n<p><span style=\"font-weight: 400;\">Het doden in oorlogsvoering is enorm veranderd met de komst van moderne militaire strategie\u00ebn en tactieken.\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Tijdens de Eerste Wereldoorlog werden historische analyses en verslagen zoals S.L.A. Marshalls controversi\u00eble boek \"<\/span><a href=\"https:\/\/history.army.mil\/html\/books\/070\/70-64\/cmhPub_70-64.pdf\"><span style=\"font-weight: 400;\">Mannen tegen vuur<\/span><\/a><span style=\"font-weight: 400;\">\" suggereren dat slechts 15 tot 25% van de frontsoldaten hun wapens afvuurden met de intentie om te doden.\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Vandaag de dag ervaart een soldaat die een drone bedient vanaf duizenden kilometers afstand niet de onmiddellijke emotionele en psychologische impact van zijn acties, wat blijkt uit het feit dat PTSS en andere mentale gezondheidsproblemen over het algemeen minder vaak voorkomen dan bij soldaten die in het veld dienen.<\/span><\/p>\n<p><span style=\"font-weight: 400;\"> Het ontwerp van militaire technologie heeft zich aangepast aan nieuwe paradigma's van 'oorlogsvoering op afstand'. De controllers die voor drones worden gebruikt, hebben veel weg van videogamecontrollers, een ontwerpkeuze die misschien niet toevallig is.<\/span><\/p>\n<p><span style=\"font-weight: 400;\">AI-operators kunnen beslissingen op leven en dood nemen in een omgeving die de realiteit van oorlog abstraheert tot datapunten en beelden op een scherm, waardoor de realiteit van de oorlog wordt gescheiden van de werkelijkheid.<\/span><span style=\"font-weight: 400;\"> de laatste morele banden die we hebben met de levens van degenen die in een conflict verwikkeld zijn geraakt.\u00a0<\/span><\/p>\n<h2><span style=\"font-weight: 400;\">Hoe gaan we nu verder?<\/span><\/h2>\n<p><span style=\"font-weight: 400;\">Terwijl militaire AI zich ontwikkelt tot iets waar velen bang voor zijn, wordt de verantwoordelijkheid voor fouten en mislukkingen bij \u00e9\u00e9n persoon gelegd, <\/span><span style=\"font-weight: 400;\">ontwikkelaars, organisaties of hele groepen lijkt onwaarschijnlijk.\u00a0<\/span><\/p>\n<p>Wie, of wat, moet dan de verantwoordelijkheid dragen? H<span style=\"font-weight: 400;\">Hoe voorkomen we dat we in een toekomst terechtkomen waarin moorden meer machine dan mens wordt en waarin ethische verantwoordelijkheid verdwijnt in algoritmische abstracties?\u00a0<\/span><\/p>\n<p>Na verloop van tijd zullen steeds intelligentere kunstmatige systemen waarschijnlijk het weefsel van ethiek en verantwoordelijkheid veranderen, vooral als ze tekenen van gevoel of bewustzijn vertonen.<\/p>\n<p>Maar dat is geen verklaring voor hoe deze situatie in het heden wordt beheerd en zoals zoveel dingen in de wereld van AI zijn er meer vragen dan antwoorden.<\/p>","protected":false},"excerpt":{"rendered":"<p>In een wereld waar \"oorlogsspellen\" niet langer alleen maar verwijzen naar bordspellen of videospellen, maar naar scenario's op leven en dood die mogelijk worden gemaakt door machine intelligentie, is de vraag naar verantwoordelijkheid monumentaal. Militairen voeren hun onderzoek naar en investeringen in AI op. Sommige analisten definieerden een 11-daagse ontmoeting tussen Isra\u00ebl en Palestina in 2021 als de eerste \"AI-oorlog\", waarbij Isra\u00eblische technologie\u00ebn hielpen bij de intelligentie en inzet op het slagveld. In de afgelopen maanden heeft het Amerikaanse leger een generatieve AI-taakgroep opgericht en met succes een autonoom vliegtuig met AI-aandrijving getest. De toenemende rol van AI in oorlogsvoering brengt een reeks complexe juridische en ethische dilemma's met zich mee waar we nog geen antwoord op hebben, zelfs niet ondanks<\/p>","protected":false},"author":2,"featured_media":4726,"comment_status":"closed","ping_status":"open","sticky":false,"template":"","format":"standard","meta":{"footnotes":""},"categories":[87],"tags":[163,302,346,294,277,348,347,345],"class_list":["post-4724","post","type-post","status-publish","format-standard","has-post-thumbnail","hentry","category-opinions","tag-ai-risks","tag-ai-weapons","tag-battlefield","tag-darpa","tag-drones","tag-ethics","tag-palantir","tag-war"],"yoast_head":"<!-- This site is optimized with the Yoast SEO plugin v27.4 - https:\/\/yoast.com\/product\/yoast-seo-wordpress\/ -->\n<title>AI on the battlefield: who is responsible if it goes wrong? | DailyAI<\/title>\n<meta name=\"description\" content=\"In a world where &quot;war games&quot; no longer refer solely to board games or video games but to life-and-death scenarios facilitated by machine intelligence, the question of ethical responsibility is monumental.\" \/>\n<meta name=\"robots\" content=\"index, follow, max-snippet:-1, max-image-preview:large, max-video-preview:-1\" \/>\n<link rel=\"canonical\" href=\"https:\/\/dailyai.com\/nl\/2023\/08\/ai-on-the-battlefield-who-is-responsible-if-it-goes-wrong\/\" \/>\n<meta property=\"og:locale\" content=\"nl_NL\" \/>\n<meta property=\"og:type\" content=\"article\" \/>\n<meta property=\"og:title\" content=\"AI on the battlefield: who is responsible if it goes wrong? | DailyAI\" \/>\n<meta property=\"og:description\" content=\"In a world where &quot;war games&quot; no longer refer solely to board games or video games but to life-and-death scenarios facilitated by machine intelligence, the question of ethical responsibility is monumental.\" \/>\n<meta property=\"og:url\" content=\"https:\/\/dailyai.com\/nl\/2023\/08\/ai-on-the-battlefield-who-is-responsible-if-it-goes-wrong\/\" \/>\n<meta property=\"og:site_name\" content=\"DailyAI\" \/>\n<meta property=\"article:published_time\" content=\"2023-08-27T20:07:21+00:00\" \/>\n<meta property=\"article:modified_time\" content=\"2023-08-30T21:09:12+00:00\" \/>\n<meta property=\"og:image\" content=\"https:\/\/dailyai.com\/wp-content\/uploads\/2023\/08\/shutterstock_2143842119.jpg\" \/>\n\t<meta property=\"og:image:width\" content=\"1000\" \/>\n\t<meta property=\"og:image:height\" content=\"667\" \/>\n\t<meta property=\"og:image:type\" content=\"image\/jpeg\" \/>\n<meta name=\"author\" content=\"Sam Jeans\" \/>\n<meta name=\"twitter:card\" content=\"summary_large_image\" \/>\n<meta name=\"twitter:creator\" content=\"@DailyAIOfficial\" \/>\n<meta name=\"twitter:site\" content=\"@DailyAIOfficial\" \/>\n<meta name=\"twitter:label1\" content=\"Geschreven door\" \/>\n\t<meta name=\"twitter:data1\" content=\"Sam Jeans\" \/>\n\t<meta name=\"twitter:label2\" content=\"Geschatte leestijd\" \/>\n\t<meta name=\"twitter:data2\" content=\"7 minuten\" \/>\n<script type=\"application\/ld+json\" class=\"yoast-schema-graph\">{\"@context\":\"https:\\\/\\\/schema.org\",\"@graph\":[{\"@type\":\"NewsArticle\",\"@id\":\"https:\\\/\\\/dailyai.com\\\/2023\\\/08\\\/ai-on-the-battlefield-who-is-responsible-if-it-goes-wrong\\\/#article\",\"isPartOf\":{\"@id\":\"https:\\\/\\\/dailyai.com\\\/2023\\\/08\\\/ai-on-the-battlefield-who-is-responsible-if-it-goes-wrong\\\/\"},\"author\":{\"name\":\"Sam Jeans\",\"@id\":\"https:\\\/\\\/dailyai.com\\\/#\\\/schema\\\/person\\\/711e81f945549438e8bbc579efdeb3c9\"},\"headline\":\"AI on the battlefield: who is responsible if it goes wrong?\",\"datePublished\":\"2023-08-27T20:07:21+00:00\",\"dateModified\":\"2023-08-30T21:09:12+00:00\",\"mainEntityOfPage\":{\"@id\":\"https:\\\/\\\/dailyai.com\\\/2023\\\/08\\\/ai-on-the-battlefield-who-is-responsible-if-it-goes-wrong\\\/\"},\"wordCount\":1414,\"publisher\":{\"@id\":\"https:\\\/\\\/dailyai.com\\\/#organization\"},\"image\":{\"@id\":\"https:\\\/\\\/dailyai.com\\\/2023\\\/08\\\/ai-on-the-battlefield-who-is-responsible-if-it-goes-wrong\\\/#primaryimage\"},\"thumbnailUrl\":\"https:\\\/\\\/dailyai.com\\\/wp-content\\\/uploads\\\/2023\\\/08\\\/shutterstock_2143842119.jpg\",\"keywords\":[\"AI risks\",\"AI weapons\",\"Battlefield\",\"DARPA\",\"Drones\",\"Ethics\",\"Palantir\",\"War\"],\"articleSection\":[\"Opinions &amp; Analysis\"],\"inLanguage\":\"nl-NL\"},{\"@type\":\"WebPage\",\"@id\":\"https:\\\/\\\/dailyai.com\\\/2023\\\/08\\\/ai-on-the-battlefield-who-is-responsible-if-it-goes-wrong\\\/\",\"url\":\"https:\\\/\\\/dailyai.com\\\/2023\\\/08\\\/ai-on-the-battlefield-who-is-responsible-if-it-goes-wrong\\\/\",\"name\":\"AI on the battlefield: who is responsible if it goes wrong? | DailyAI\",\"isPartOf\":{\"@id\":\"https:\\\/\\\/dailyai.com\\\/#website\"},\"primaryImageOfPage\":{\"@id\":\"https:\\\/\\\/dailyai.com\\\/2023\\\/08\\\/ai-on-the-battlefield-who-is-responsible-if-it-goes-wrong\\\/#primaryimage\"},\"image\":{\"@id\":\"https:\\\/\\\/dailyai.com\\\/2023\\\/08\\\/ai-on-the-battlefield-who-is-responsible-if-it-goes-wrong\\\/#primaryimage\"},\"thumbnailUrl\":\"https:\\\/\\\/dailyai.com\\\/wp-content\\\/uploads\\\/2023\\\/08\\\/shutterstock_2143842119.jpg\",\"datePublished\":\"2023-08-27T20:07:21+00:00\",\"dateModified\":\"2023-08-30T21:09:12+00:00\",\"description\":\"In a world where \\\"war games\\\" no longer refer solely to board games or video games but to life-and-death scenarios facilitated by machine intelligence, the question of ethical responsibility is monumental.\",\"breadcrumb\":{\"@id\":\"https:\\\/\\\/dailyai.com\\\/2023\\\/08\\\/ai-on-the-battlefield-who-is-responsible-if-it-goes-wrong\\\/#breadcrumb\"},\"inLanguage\":\"nl-NL\",\"potentialAction\":[{\"@type\":\"ReadAction\",\"target\":[\"https:\\\/\\\/dailyai.com\\\/2023\\\/08\\\/ai-on-the-battlefield-who-is-responsible-if-it-goes-wrong\\\/\"]}]},{\"@type\":\"ImageObject\",\"inLanguage\":\"nl-NL\",\"@id\":\"https:\\\/\\\/dailyai.com\\\/2023\\\/08\\\/ai-on-the-battlefield-who-is-responsible-if-it-goes-wrong\\\/#primaryimage\",\"url\":\"https:\\\/\\\/dailyai.com\\\/wp-content\\\/uploads\\\/2023\\\/08\\\/shutterstock_2143842119.jpg\",\"contentUrl\":\"https:\\\/\\\/dailyai.com\\\/wp-content\\\/uploads\\\/2023\\\/08\\\/shutterstock_2143842119.jpg\",\"width\":1000,\"height\":667,\"caption\":\"War crimes\"},{\"@type\":\"BreadcrumbList\",\"@id\":\"https:\\\/\\\/dailyai.com\\\/2023\\\/08\\\/ai-on-the-battlefield-who-is-responsible-if-it-goes-wrong\\\/#breadcrumb\",\"itemListElement\":[{\"@type\":\"ListItem\",\"position\":1,\"name\":\"Home\",\"item\":\"https:\\\/\\\/dailyai.com\\\/\"},{\"@type\":\"ListItem\",\"position\":2,\"name\":\"AI on the battlefield: who is responsible if it goes wrong?\"}]},{\"@type\":\"WebSite\",\"@id\":\"https:\\\/\\\/dailyai.com\\\/#website\",\"url\":\"https:\\\/\\\/dailyai.com\\\/\",\"name\":\"DailyAI\",\"description\":\"Your Daily Dose of AI News\",\"publisher\":{\"@id\":\"https:\\\/\\\/dailyai.com\\\/#organization\"},\"potentialAction\":[{\"@type\":\"SearchAction\",\"target\":{\"@type\":\"EntryPoint\",\"urlTemplate\":\"https:\\\/\\\/dailyai.com\\\/?s={search_term_string}\"},\"query-input\":{\"@type\":\"PropertyValueSpecification\",\"valueRequired\":true,\"valueName\":\"search_term_string\"}}],\"inLanguage\":\"nl-NL\"},{\"@type\":\"Organization\",\"@id\":\"https:\\\/\\\/dailyai.com\\\/#organization\",\"name\":\"DailyAI\",\"url\":\"https:\\\/\\\/dailyai.com\\\/\",\"logo\":{\"@type\":\"ImageObject\",\"inLanguage\":\"nl-NL\",\"@id\":\"https:\\\/\\\/dailyai.com\\\/#\\\/schema\\\/logo\\\/image\\\/\",\"url\":\"https:\\\/\\\/dailyai.com\\\/wp-content\\\/uploads\\\/2023\\\/06\\\/Daily-Ai_TL_colour.png\",\"contentUrl\":\"https:\\\/\\\/dailyai.com\\\/wp-content\\\/uploads\\\/2023\\\/06\\\/Daily-Ai_TL_colour.png\",\"width\":4501,\"height\":934,\"caption\":\"DailyAI\"},\"image\":{\"@id\":\"https:\\\/\\\/dailyai.com\\\/#\\\/schema\\\/logo\\\/image\\\/\"},\"sameAs\":[\"https:\\\/\\\/x.com\\\/DailyAIOfficial\",\"https:\\\/\\\/www.linkedin.com\\\/company\\\/dailyaiofficial\\\/\",\"https:\\\/\\\/www.youtube.com\\\/@DailyAIOfficial\"]},{\"@type\":\"Person\",\"@id\":\"https:\\\/\\\/dailyai.com\\\/#\\\/schema\\\/person\\\/711e81f945549438e8bbc579efdeb3c9\",\"name\":\"Sam Jeans\",\"image\":{\"@type\":\"ImageObject\",\"inLanguage\":\"nl-NL\",\"@id\":\"https:\\\/\\\/secure.gravatar.com\\\/avatar\\\/a24a4a8f8e2a1a275b7491dc9c9f032c401eabf23c3206da4628dc84b6dac5c8?s=96&d=robohash&r=g\",\"url\":\"https:\\\/\\\/secure.gravatar.com\\\/avatar\\\/a24a4a8f8e2a1a275b7491dc9c9f032c401eabf23c3206da4628dc84b6dac5c8?s=96&d=robohash&r=g\",\"contentUrl\":\"https:\\\/\\\/secure.gravatar.com\\\/avatar\\\/a24a4a8f8e2a1a275b7491dc9c9f032c401eabf23c3206da4628dc84b6dac5c8?s=96&d=robohash&r=g\",\"caption\":\"Sam Jeans\"},\"description\":\"Sam is a science and technology writer who has worked in various AI startups. When he\u2019s not writing, he can be found reading medical journals or digging through boxes of vinyl records.\",\"sameAs\":[\"https:\\\/\\\/www.linkedin.com\\\/in\\\/sam-jeans-6746b9142\\\/\"],\"url\":\"https:\\\/\\\/dailyai.com\\\/nl\\\/author\\\/samjeans\\\/\"}]}<\/script>\n<!-- \/ Yoast SEO plugin. -->","yoast_head_json":{"title":"AI op het slagveld: wie is verantwoordelijk als het fout gaat? | DailyAI","description":"In een wereld waar \"oorlogsspellen\" niet langer alleen naar bordspellen of videospellen verwijzen, maar naar scenario's op leven en dood die mogelijk worden gemaakt door machine-intelligentie, is de vraag naar ethische verantwoordelijkheid monumentaal.","robots":{"index":"index","follow":"follow","max-snippet":"max-snippet:-1","max-image-preview":"max-image-preview:large","max-video-preview":"max-video-preview:-1"},"canonical":"https:\/\/dailyai.com\/nl\/2023\/08\/ai-on-the-battlefield-who-is-responsible-if-it-goes-wrong\/","og_locale":"nl_NL","og_type":"article","og_title":"AI on the battlefield: who is responsible if it goes wrong? | DailyAI","og_description":"In a world where \"war games\" no longer refer solely to board games or video games but to life-and-death scenarios facilitated by machine intelligence, the question of ethical responsibility is monumental.","og_url":"https:\/\/dailyai.com\/nl\/2023\/08\/ai-on-the-battlefield-who-is-responsible-if-it-goes-wrong\/","og_site_name":"DailyAI","article_published_time":"2023-08-27T20:07:21+00:00","article_modified_time":"2023-08-30T21:09:12+00:00","og_image":[{"width":1000,"height":667,"url":"https:\/\/dailyai.com\/wp-content\/uploads\/2023\/08\/shutterstock_2143842119.jpg","type":"image\/jpeg"}],"author":"Sam Jeans","twitter_card":"summary_large_image","twitter_creator":"@DailyAIOfficial","twitter_site":"@DailyAIOfficial","twitter_misc":{"Geschreven door":"Sam Jeans","Geschatte leestijd":"7 minuten"},"schema":{"@context":"https:\/\/schema.org","@graph":[{"@type":"NewsArticle","@id":"https:\/\/dailyai.com\/2023\/08\/ai-on-the-battlefield-who-is-responsible-if-it-goes-wrong\/#article","isPartOf":{"@id":"https:\/\/dailyai.com\/2023\/08\/ai-on-the-battlefield-who-is-responsible-if-it-goes-wrong\/"},"author":{"name":"Sam Jeans","@id":"https:\/\/dailyai.com\/#\/schema\/person\/711e81f945549438e8bbc579efdeb3c9"},"headline":"AI on the battlefield: who is responsible if it goes wrong?","datePublished":"2023-08-27T20:07:21+00:00","dateModified":"2023-08-30T21:09:12+00:00","mainEntityOfPage":{"@id":"https:\/\/dailyai.com\/2023\/08\/ai-on-the-battlefield-who-is-responsible-if-it-goes-wrong\/"},"wordCount":1414,"publisher":{"@id":"https:\/\/dailyai.com\/#organization"},"image":{"@id":"https:\/\/dailyai.com\/2023\/08\/ai-on-the-battlefield-who-is-responsible-if-it-goes-wrong\/#primaryimage"},"thumbnailUrl":"https:\/\/dailyai.com\/wp-content\/uploads\/2023\/08\/shutterstock_2143842119.jpg","keywords":["AI risks","AI weapons","Battlefield","DARPA","Drones","Ethics","Palantir","War"],"articleSection":["Opinions &amp; Analysis"],"inLanguage":"nl-NL"},{"@type":"WebPage","@id":"https:\/\/dailyai.com\/2023\/08\/ai-on-the-battlefield-who-is-responsible-if-it-goes-wrong\/","url":"https:\/\/dailyai.com\/2023\/08\/ai-on-the-battlefield-who-is-responsible-if-it-goes-wrong\/","name":"AI op het slagveld: wie is verantwoordelijk als het fout gaat? | DailyAI","isPartOf":{"@id":"https:\/\/dailyai.com\/#website"},"primaryImageOfPage":{"@id":"https:\/\/dailyai.com\/2023\/08\/ai-on-the-battlefield-who-is-responsible-if-it-goes-wrong\/#primaryimage"},"image":{"@id":"https:\/\/dailyai.com\/2023\/08\/ai-on-the-battlefield-who-is-responsible-if-it-goes-wrong\/#primaryimage"},"thumbnailUrl":"https:\/\/dailyai.com\/wp-content\/uploads\/2023\/08\/shutterstock_2143842119.jpg","datePublished":"2023-08-27T20:07:21+00:00","dateModified":"2023-08-30T21:09:12+00:00","description":"In een wereld waar \"oorlogsspellen\" niet langer alleen naar bordspellen of videospellen verwijzen, maar naar scenario's op leven en dood die mogelijk worden gemaakt door machine-intelligentie, is de vraag naar ethische verantwoordelijkheid monumentaal.","breadcrumb":{"@id":"https:\/\/dailyai.com\/2023\/08\/ai-on-the-battlefield-who-is-responsible-if-it-goes-wrong\/#breadcrumb"},"inLanguage":"nl-NL","potentialAction":[{"@type":"ReadAction","target":["https:\/\/dailyai.com\/2023\/08\/ai-on-the-battlefield-who-is-responsible-if-it-goes-wrong\/"]}]},{"@type":"ImageObject","inLanguage":"nl-NL","@id":"https:\/\/dailyai.com\/2023\/08\/ai-on-the-battlefield-who-is-responsible-if-it-goes-wrong\/#primaryimage","url":"https:\/\/dailyai.com\/wp-content\/uploads\/2023\/08\/shutterstock_2143842119.jpg","contentUrl":"https:\/\/dailyai.com\/wp-content\/uploads\/2023\/08\/shutterstock_2143842119.jpg","width":1000,"height":667,"caption":"War crimes"},{"@type":"BreadcrumbList","@id":"https:\/\/dailyai.com\/2023\/08\/ai-on-the-battlefield-who-is-responsible-if-it-goes-wrong\/#breadcrumb","itemListElement":[{"@type":"ListItem","position":1,"name":"Home","item":"https:\/\/dailyai.com\/"},{"@type":"ListItem","position":2,"name":"AI on the battlefield: who is responsible if it goes wrong?"}]},{"@type":"WebSite","@id":"https:\/\/dailyai.com\/#website","url":"https:\/\/dailyai.com\/","name":"DailyAI","description":"Uw dagelijkse dosis AI-nieuws","publisher":{"@id":"https:\/\/dailyai.com\/#organization"},"potentialAction":[{"@type":"SearchAction","target":{"@type":"EntryPoint","urlTemplate":"https:\/\/dailyai.com\/?s={search_term_string}"},"query-input":{"@type":"PropertyValueSpecification","valueRequired":true,"valueName":"search_term_string"}}],"inLanguage":"nl-NL"},{"@type":"Organization","@id":"https:\/\/dailyai.com\/#organization","name":"DailyAI","url":"https:\/\/dailyai.com\/","logo":{"@type":"ImageObject","inLanguage":"nl-NL","@id":"https:\/\/dailyai.com\/#\/schema\/logo\/image\/","url":"https:\/\/dailyai.com\/wp-content\/uploads\/2023\/06\/Daily-Ai_TL_colour.png","contentUrl":"https:\/\/dailyai.com\/wp-content\/uploads\/2023\/06\/Daily-Ai_TL_colour.png","width":4501,"height":934,"caption":"DailyAI"},"image":{"@id":"https:\/\/dailyai.com\/#\/schema\/logo\/image\/"},"sameAs":["https:\/\/x.com\/DailyAIOfficial","https:\/\/www.linkedin.com\/company\/dailyaiofficial\/","https:\/\/www.youtube.com\/@DailyAIOfficial"]},{"@type":"Person","@id":"https:\/\/dailyai.com\/#\/schema\/person\/711e81f945549438e8bbc579efdeb3c9","name":"Sam Jeans","image":{"@type":"ImageObject","inLanguage":"nl-NL","@id":"https:\/\/secure.gravatar.com\/avatar\/a24a4a8f8e2a1a275b7491dc9c9f032c401eabf23c3206da4628dc84b6dac5c8?s=96&d=robohash&r=g","url":"https:\/\/secure.gravatar.com\/avatar\/a24a4a8f8e2a1a275b7491dc9c9f032c401eabf23c3206da4628dc84b6dac5c8?s=96&d=robohash&r=g","contentUrl":"https:\/\/secure.gravatar.com\/avatar\/a24a4a8f8e2a1a275b7491dc9c9f032c401eabf23c3206da4628dc84b6dac5c8?s=96&d=robohash&r=g","caption":"Sam Jeans"},"description":"Sam is een wetenschap- en technologieschrijver die bij verschillende AI-startups heeft gewerkt. Als hij niet aan het schrijven is, leest hij medische tijdschriften of graaft hij door dozen met vinylplaten.","sameAs":["https:\/\/www.linkedin.com\/in\/sam-jeans-6746b9142\/"],"url":"https:\/\/dailyai.com\/nl\/author\/samjeans\/"}]}},"_links":{"self":[{"href":"https:\/\/dailyai.com\/nl\/wp-json\/wp\/v2\/posts\/4724","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/dailyai.com\/nl\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/dailyai.com\/nl\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/dailyai.com\/nl\/wp-json\/wp\/v2\/users\/2"}],"replies":[{"embeddable":true,"href":"https:\/\/dailyai.com\/nl\/wp-json\/wp\/v2\/comments?post=4724"}],"version-history":[{"count":21,"href":"https:\/\/dailyai.com\/nl\/wp-json\/wp\/v2\/posts\/4724\/revisions"}],"predecessor-version":[{"id":4773,"href":"https:\/\/dailyai.com\/nl\/wp-json\/wp\/v2\/posts\/4724\/revisions\/4773"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/dailyai.com\/nl\/wp-json\/wp\/v2\/media\/4726"}],"wp:attachment":[{"href":"https:\/\/dailyai.com\/nl\/wp-json\/wp\/v2\/media?parent=4724"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/dailyai.com\/nl\/wp-json\/wp\/v2\/categories?post=4724"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/dailyai.com\/nl\/wp-json\/wp\/v2\/tags?post=4724"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}