{"id":4724,"date":"2023-08-27T20:07:21","date_gmt":"2023-08-27T20:07:21","guid":{"rendered":"https:\/\/dailyai.com\/?p=4724"},"modified":"2023-08-30T21:09:12","modified_gmt":"2023-08-30T21:09:12","slug":"ai-on-the-battlefield-who-is-responsible-if-it-goes-wrong","status":"publish","type":"post","link":"https:\/\/dailyai.com\/nb\/2023\/08\/ai-on-the-battlefield-who-is-responsible-if-it-goes-wrong\/","title":{"rendered":"AI p\u00e5 slagmarken: Hvem har ansvaret hvis det g\u00e5r galt?"},"content":{"rendered":"<p><strong>I en verden der \"krigsspill\" ikke lenger bare refererer til brettspill eller videospill, men til scenarier p\u00e5 liv og d\u00f8d tilrettelagt av maskinell intelligens, er sp\u00f8rsm\u00e5let om ansvar monumentalt.<\/strong><\/p>\n<p><span style=\"font-weight: 400;\">Milit\u00e6ret \u00f8ker forskningen og investeringene i kunstig intelligens. <\/span><\/p>\n<p><span style=\"font-weight: 400;\">Noen analytikere definerte et 11 dager langt m\u00f8te mellom Israel og Palestina i 2021 som det f\u00f8rste \"<a href=\"https:\/\/dailyai.com\/nb\/2023\/07\/israel-deploys-advanced-ai-onto-the-battlefield\/\">AI-krig<\/a>\", der israelsk teknologi bisto med etterretning og utplassering p\u00e5 slagmarken. <\/span><\/p>\n<p><span style=\"font-weight: 400;\">De siste m\u00e5nedene<\/span><span style=\"font-weight: 400;\">\u00a0t<\/span><span style=\"font-weight: 400;\">et amerikanske milit\u00e6ret etablerte en <\/span><a href=\"https:\/\/dailyai.com\/nb\/2023\/08\/us-military-establishes-generative-ai-task-force\/\"><span style=\"font-weight: 400;\">arbeidsgruppe for generativ AI<\/span><\/a><span style=\"font-weight: 400;\"> og vellykket testet en <\/span><a href=\"https:\/\/dailyai.com\/nb\/2023\/08\/the-us-air-force-confirms-successful-ai-powered-test-flight\/\"><span style=\"font-weight: 400;\">autonomt AI-drevet jetfly<\/span><\/a><span style=\"font-weight: 400;\">.<\/span><\/p>\n<p><span style=\"font-weight: 400;\">AIs \u00f8kende rolle i krigf\u00f8ring byr p\u00e5 en rekke komplekse juridiske og etiske dilemmaer som vi enn\u00e5 ikke har funnet svar p\u00e5, til tross for at AI-drevet milit\u00e6rteknologi tas i bruk akkurat n\u00e5. <\/span><\/p>\n<h2><span style=\"font-weight: 400;\">Hvem har ansvaret n\u00e5r AI g\u00e5r galt?<\/span><\/h2>\n<p><span style=\"font-weight: 400;\">Milit\u00e6rteknologiprodusenten Rafaels \"<a href=\"https:\/\/www.rafael.co.il\/worlds\/land\/multi-service-network-centric-warfare\/\">Fire Weaver<\/a>\" lokaliserer fiendens posisjoner ved hjelp av sensorer og foresl\u00e5r den best plasserte enheten til \u00e5 skyte mot dem.\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Produktbeskrivelsen sier: \"Fire Weaver beregner engasjementsreglene og styrer siktet og avfyringen ved \u00e5 bruke den mest hensiktsmessige skytteren for hvert m\u00e5l.\" <\/span><\/p>\n<p><span style=\"font-weight: 400;\">\"Beregner\" er det avgj\u00f8rende ordet her - og\u00a0<\/span><span style=\"font-weight: 400;\">AI-v\u00e5pen kan redusere beslutningen om \u00e5 \u00f8delegge et m\u00e5l til en bin\u00e6r ja\/nei-avgj\u00f8relse, s\u00e5 hva om Fire Weaver forveksler et barn med en fiendtlig soldat? Eller en lastebil med humanit\u00e6r hjelp i stedet for et fiendtlig kj\u00f8ret\u00f8y?<\/span><\/p>\n<p><span style=\"font-weight: 400;\">For \u00f8yeblikket er mangelen p\u00e5 moralsk, etisk og juridisk klarhet skrikende. Kunstig intelligens befinner seg i et juridisk og etisk vakuum, og slik kan det komme til \u00e5 v\u00e6re i lang tid fremover, ettersom lovgivningen er notorisk treg - og sjelden m\u00f8ter en teknologi som utvikler seg s\u00e5 raskt.\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400;\">I samfunnet generelt finnes det allerede mange eksempler p\u00e5 at kunstig intelligens g\u00e5r p\u00e5 bekostning av mennesker og deres rettigheter. Disse eksemplene gir et glimt av det tomrommet i lovgivning og etikk som kunstig intelligens og dens ulike bruksomr\u00e5der har skapt.\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400;\">For eksempel, <\/span><a href=\"https:\/\/dailyai.com\/nb\/2023\/06\/first-in-kind-libel-lawsuit-filed-against-openai\/\"><span style=\"font-weight: 400;\">ChatGPT p\u00e5st\u00e5tt<\/span><\/a><span style=\"font-weight: 400;\"> ble en mann fra Georgia, Mark Walters, funnet skyldig i underslag og anklaget jusprofessor Jonathan Turley for seksuelle overgrep. ChatGPT var falsk i begge sakene.<\/span><\/p>\n<p><span style=\"font-weight: 400;\">P\u00e5 samme m\u00e5te har Getty Images og flere kunstnere, forfattere og andre kreat\u00f8rer lansert <a href=\"https:\/\/dailyai.com\/nb\/2023\/07\/more-authors-attempt-to-sue-openai-for-using-copyright-material\/\">s\u00f8ksm\u00e5l om opphavsrett<\/a> mot teknologiselskaper for \u00e5 bruke treningsdata til \u00e5 bygge modellene sine.\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Oppl\u00e6ringsdata samles ofte inn fra tredjeparter, som Common Crawl, og \"skyggebiblioteker\" som Bibliotik, som ligner p\u00e5 torrentsider som PirateBay.\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Hvem er i s\u00e5 fall ansvarlig for brudd p\u00e5 opphavsretten? AI-utviklerne eller datasettutgiverne? Det er en tegneserieaktig ansvarssirkel der hver potensielt skyldig part peker p\u00e5 dem ved siden av seg, og til slutt slipper alle unna skylden.\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Dette uklare etiske landskapet er langt mer risikofylt i forbindelse med AI-v\u00e5pen og algoritmiske milit\u00e6re taktikker, der en modells beregninger bokstavelig talt kan avgj\u00f8re liv eller d\u00f8d.\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Milit\u00e6re organisasjoner er allerede klar over paradigmeskiftet som AI-v\u00e5pen inneb\u00e6rer. If\u00f8lge Department of Defense (DoD) er den f\u00f8rste av de fem \"<\/span><a href=\"https:\/\/www.ai.mil\/docs\/Ethical_Principles_for_Artificial_Intelligence.pdf\"><span style=\"font-weight: 400;\">etiske prinsipper for kunstig intelligens<\/span><\/a><span style=\"font-weight: 400;\">\" for milit\u00e6r bruk er \"Ansvarlig\", definert som \"DoD-personell vil utvise passende grad av d\u00f8mmekraft og forsiktighet, samtidig som de forblir ansvarlige for utvikling, utplassering og bruk av AI-kapasiteter.\"<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Det betyr at et menneske til syvende og sist m\u00e5 v\u00e6re ansvarlig for maskinens handlinger. Milit\u00e6ret har alltid basert seg p\u00e5 prinsippet om at noen - typisk sjefen eller en soldat - m\u00e5 holdes ansvarlig for handlinger som utf\u00f8res under krigf\u00f8ring. Likevel blir AIs rolle i beslutningsprosessen stadig mer uklar.\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Det f\u00f8rste sp\u00f8rsm\u00e5let er om det \u00e5 trykke p\u00e5 \"Godkjenn\"-knappen er ensbetydende med skyld n\u00e5r AI f\u00e5r mer sofistikerte roller innen m\u00e5lretting, overv\u00e5king og andre omr\u00e5der.\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Hvis AIs sp\u00e5dommer skulle sl\u00e5 feil, for eksempel med sivile d\u00f8dsfall som resultat, er det tvilsomt om noen ville akseptere at \"maskinen\" fikk hele skylden for en ulykke.\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400;\">P\u00e5 sin side kan det oppst\u00e5 situasjoner der mennesker urettmessig f\u00e5r skylden for sin rolle i en ulykke som de ikke har bidratt til, noe antropologen M.C. Elish beskriver som en \"<\/span><a href=\"https:\/\/estsjournal.org\/index.php\/ests\/article\/view\/260\"><span style=\"font-weight: 400;\">moralsk kr\u00f8llesone<\/span><\/a><span style=\"font-weight: 400;\">.\"\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Elishs forskning p\u00e5 industri- og maskinulykker tyder p\u00e5 at mennesker har en tendens til \u00e5 ta p\u00e5 seg skylden i enhver ulykke, selv om feilen ligger hos maskinen, algoritmen eller beslutningstakeren som godkjente teknologien i f\u00f8rste omgang.\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Hun trekker frem flere eksempler fra virkeligheten, som atomulykken p\u00e5 Three Mile Island i Pennsylvania og styrten med Air France Flight 447, som i stor grad ble tilskrevet \"menneskelig svikt\" snarere enn en mer intrikat serie av feil fordelt p\u00e5 flere individer og systemer.\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Elish sier om ansvar i AI-\u00e6raen: \"N\u00e5r det gjelder autonome teknologier og robotteknologier, er regelverket, lovene og normene fortsatt under utforming, og de kan v\u00e6re spesielt utsatt for usikkerhet eller til og med ansvarsfraskrivelse.\"<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Dette reiser ogs\u00e5 sp\u00f8rsm\u00e5l om demokratiske prosessers rolle i krigf\u00f8ring og om menneskers suverenitet i beslutningsprosesser. Da Vietnamkrigen ble vist i amerikanske stuer, fikk krigens umiddelbare konsekvenser for opinionen og politikken.\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400;\">AI-st\u00f8ttet kamp kan derimot fjerne samfunnets kontroll og balanse fra folkemeningen og den demokratiske diskursen.<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Etikkforskeren og filosofen Thomas Metzinger understreker at etiske normer ikke bare er juridiske konstruksjoner, men ogs\u00e5 sosiale normer som springer ut av demokratiske prosesser. <\/span><\/p>\n<p><span style=\"font-weight: 400;\">Hvis algoritmene tar avgj\u00f8relsene, blir menneskelig engasjement - og dermed moralsk ansvar - diffust og overfl\u00f8dig.\u00a0<\/span><\/p>\n<h2><span style=\"font-weight: 400;\">Internasjonale juridiske konsekvenser av kunstig intelligens i krigf\u00f8ring<\/span><\/h2>\n<p><span style=\"font-weight: 400;\">En av Gen\u00e8ve-konvensjonens grunnpilarer er prinsippet om \"distinksjon\", som inneb\u00e6rer at det skal skilles mellom stridende og sivile.\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Teknologien har allerede vist seg \u00e5 ikke innfri l\u00f8ftene om \u00f8kt beskyttelse av sivile, og bare 10% av de som ble drept i amerikanske droneangrep under Obamas presidentperiode var de tiltenkte m\u00e5lene, if\u00f8lge lekkede papirer fra <\/span><a href=\"https:\/\/theintercept.com\/drone-papers\/\"><span style=\"font-weight: 400;\">The Intercept<\/span><\/a><span style=\"font-weight: 400;\">.\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400;\">AI-algoritmer er bare s\u00e5 gode som dataene de er trent p\u00e5, og reglene de er programmert til \u00e5 f\u00f8lge. N\u00e5r det gjelder krigf\u00f8ring, kan en algoritme feiltolke data p\u00e5 grunn av krigens t\u00e5ke, mangelfulle treningsdata eller bevisst villedende fiendtlig taktikk.\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Den internasjonale R\u00f8de Kors-komiteen (ICRC) har startet diskusjoner om lovligheten av autonome v\u00e5pensystemer i henhold til eksisterende internasjonal humanit\u00e6rrett, men det finnes f\u00e5 konkrete definisjoner.\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400;\">De fastsl\u00e5r at eksisterende rammeverk er d\u00e5rlig egnet for de nye utfordringene som kunstig intelligens stiller oss overfor, og de <\/span><a href=\"https:\/\/www.icrc.org\/en\/document\/artificial-intelligence-and-machine-learning-armed-conflict-human-centred-approach%C2%A0\"><span style=\"font-weight: 400;\">ICRCs forslag til prinsipper<\/span><\/a><span style=\"font-weight: 400;\"> er vage, for eksempel: \"Uforutsigbare autonome v\u00e5pensystemer b\u00f8r uttrykkelig utelukkes.\" <\/span><\/p>\n<p><span style=\"font-weight: 400;\">Hvor g\u00e5r grensen for \"uforutsigbar\" n\u00e5r en \u00f8rliten feil kan f\u00e5 katastrofale f\u00f8lger?<\/span><\/p>\n<p><iframe loading=\"lazy\" title=\"Hva er farene ved autonome v\u00e5pen? | Krigens lover | ICRC\" width=\"1080\" height=\"608\" src=\"https:\/\/www.youtube.com\/embed\/8GwBTFRFlzA?feature=oembed\" frameborder=\"0\" allow=\"accelerometer; autoplay; clipboard-write; encrypted-media; gyroscope; picture-in-picture; web-share\" referrerpolicy=\"strict-origin-when-cross-origin\" allowfullscreen><\/iframe><\/p>\n<p><span style=\"font-weight: 400;\">Dessuten er slagmarken i stadig endring og vil by p\u00e5 \"edge cases\", det vil si blindsoner som det ikke er tatt h\u00f8yde for i AI-oppl\u00e6ringen. Det er sv\u00e6rt vanskelig \u00e5 bygge AI-systemer som reagerer p\u00e5 dynamiske milj\u00f8forhold med samme reaksjonstid som mennesker.\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Selv om AI-v\u00e5pen kan opprettholde n\u00f8yaktigheten i typiske scenarier p\u00e5 slagmarken, hva skjer n\u00e5r omgivelsene avviker fra det modellen tror er \"sannheten p\u00e5 bakken\", eller n\u00e5r \"edge cases\" forstyrrer n\u00f8yaktigheten?<\/span><\/p>\n<h2><span style=\"font-weight: 400;\">Erosjon av moralsk sensitivitet<\/span><\/h2>\n<p><span style=\"font-weight: 400;\">Det \u00e5 drepe i krig har endret seg betraktelig med fremveksten av moderne milit\u00e6re strategier og taktikker.\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Under f\u00f8rste verdenskrig ble historiske analyser og beretninger som S.L.A. Marshalls kontroversielle bok \"<\/span><a href=\"https:\/\/history.army.mil\/html\/books\/070\/70-64\/cmhPub_70-64.pdf\"><span style=\"font-weight: 400;\">Menn mot ilden<\/span><\/a><span style=\"font-weight: 400;\">\" tyder p\u00e5 at bare 15 til 25% av frontsoldatene avfyrte sine v\u00e5pen i den hensikt \u00e5 drepe.\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400;\">I dag opplever ikke en soldat som opererer en drone tusenvis av kilometer unna, de umiddelbare emosjonelle og psykologiske konsekvensene av handlingene sine, noe som har vist seg i form av en generelt lavere forekomst av PTSD og andre psykiske problemer sammenlignet med dem som tjenestegj\u00f8r i felt.<\/span><\/p>\n<p><span style=\"font-weight: 400;\"> Selve utformingen av milit\u00e6r teknologi har tilpasset seg nye paradigmer for \"fjernkrigf\u00f8ring\". Kontrollene som brukes til droner, har blitt lagt merke til for sin likhet med videospillkontrollere, et designvalg som kanskje ikke er tilfeldig.<\/span><\/p>\n<p><span style=\"font-weight: 400;\">AI-operat\u00f8rer kan ta avgj\u00f8relser om liv og d\u00f8d i et milj\u00f8 som abstraherer krigens realiteter til datapunkter og bilder p\u00e5 en skjerm, noe som<\/span><span style=\"font-weight: 400;\"> de siste moralske forbindelsene vi har med livene til dem som er involvert i konflikten.\u00a0<\/span><\/p>\n<h2><span style=\"font-weight: 400;\">Hva gj\u00f8r vi n\u00e5?<\/span><\/h2>\n<p><span style=\"font-weight: 400;\">Milit\u00e6r AI utvikler seg til noe mange frykter, og ansvaret for feil og fiaskoer legges p\u00e5 en enkelt person, <\/span><span style=\"font-weight: 400;\">utviklere, organisasjoner eller hele grupper virker usannsynlig.\u00a0<\/span><\/p>\n<p>Hvem, eller hva, er det da som sitter igjen med ansvaret? H<span style=\"font-weight: 400;\">Hvordan kan vi unng\u00e5 \u00e5 g\u00e5 inn i en fremtid der drap blir mer maskinelt enn menneskelig, og der etisk ansvar forsvinner i algoritmiske abstraksjoner?\u00a0<\/span><\/p>\n<p>Med tiden vil stadig mer intelligente kunstige systemer sannsynligvis forandre etikken og ansvarsforholdene, s\u00e6rlig hvis de viser tegn p\u00e5 f\u00f8lelser eller bevissthet.<\/p>\n<p>Men det tar ikke hensyn til hvordan denne situasjonen h\u00e5ndteres i dag, og som s\u00e5 mye annet i AI-verdenen er det flere sp\u00f8rsm\u00e5l enn svar.<\/p>","protected":false},"excerpt":{"rendered":"<p>I en verden der \"krigsspill\" ikke lenger bare refererer til brettspill eller videospill, men til scenarier p\u00e5 liv og d\u00f8d tilrettelagt av maskinell intelligens, er sp\u00f8rsm\u00e5let om ansvar monumentalt. Milit\u00e6re styrker \u00f8ker forskningen og investeringene i kunstig intelligens. Noen analytikere definerte et 11 dager langt m\u00f8te mellom Israel og Palestina i 2021 som den f\u00f8rste \"AI-krigen\", der israelsk teknologi bisto med etterretning og utplassering p\u00e5 slagmarken. I l\u00f8pet av de siste m\u00e5nedene har det amerikanske milit\u00e6ret etablert en generativ AI-arbeidsgruppe og testet et autonomt AI-drevet jetfly. AIs \u00f8kende rolle i krigf\u00f8ring byr p\u00e5 en rekke komplekse juridiske og etiske dilemmaer som vi enn\u00e5 ikke har funnet svar p\u00e5, selv til tross for<\/p>","protected":false},"author":2,"featured_media":4726,"comment_status":"closed","ping_status":"open","sticky":false,"template":"","format":"standard","meta":{"footnotes":""},"categories":[87],"tags":[163,302,346,294,277,348,347,345],"class_list":["post-4724","post","type-post","status-publish","format-standard","has-post-thumbnail","hentry","category-opinions","tag-ai-risks","tag-ai-weapons","tag-battlefield","tag-darpa","tag-drones","tag-ethics","tag-palantir","tag-war"],"yoast_head":"<!-- This site is optimized with the Yoast SEO plugin v27.4 - https:\/\/yoast.com\/product\/yoast-seo-wordpress\/ -->\n<title>AI on the battlefield: who is responsible if it goes wrong? | DailyAI<\/title>\n<meta name=\"description\" content=\"In a world where &quot;war games&quot; no longer refer solely to board games or video games but to life-and-death scenarios facilitated by machine intelligence, the question of ethical responsibility is monumental.\" \/>\n<meta name=\"robots\" content=\"index, follow, max-snippet:-1, max-image-preview:large, max-video-preview:-1\" \/>\n<link rel=\"canonical\" href=\"https:\/\/dailyai.com\/nb\/2023\/08\/ai-on-the-battlefield-who-is-responsible-if-it-goes-wrong\/\" \/>\n<meta property=\"og:locale\" content=\"nb_NO\" \/>\n<meta property=\"og:type\" content=\"article\" \/>\n<meta property=\"og:title\" content=\"AI on the battlefield: who is responsible if it goes wrong? | DailyAI\" \/>\n<meta property=\"og:description\" content=\"In a world where &quot;war games&quot; no longer refer solely to board games or video games but to life-and-death scenarios facilitated by machine intelligence, the question of ethical responsibility is monumental.\" \/>\n<meta property=\"og:url\" content=\"https:\/\/dailyai.com\/nb\/2023\/08\/ai-on-the-battlefield-who-is-responsible-if-it-goes-wrong\/\" \/>\n<meta property=\"og:site_name\" content=\"DailyAI\" \/>\n<meta property=\"article:published_time\" content=\"2023-08-27T20:07:21+00:00\" \/>\n<meta property=\"article:modified_time\" content=\"2023-08-30T21:09:12+00:00\" \/>\n<meta property=\"og:image\" content=\"https:\/\/dailyai.com\/wp-content\/uploads\/2023\/08\/shutterstock_2143842119.jpg\" \/>\n\t<meta property=\"og:image:width\" content=\"1000\" \/>\n\t<meta property=\"og:image:height\" content=\"667\" \/>\n\t<meta property=\"og:image:type\" content=\"image\/jpeg\" \/>\n<meta name=\"author\" content=\"Sam Jeans\" \/>\n<meta name=\"twitter:card\" content=\"summary_large_image\" \/>\n<meta name=\"twitter:creator\" content=\"@DailyAIOfficial\" \/>\n<meta name=\"twitter:site\" content=\"@DailyAIOfficial\" \/>\n<meta name=\"twitter:label1\" content=\"Skrevet av\" \/>\n\t<meta name=\"twitter:data1\" content=\"Sam Jeans\" \/>\n\t<meta name=\"twitter:label2\" content=\"Ansl. lesetid\" \/>\n\t<meta name=\"twitter:data2\" content=\"7 minutter\" \/>\n<script type=\"application\/ld+json\" class=\"yoast-schema-graph\">{\"@context\":\"https:\\\/\\\/schema.org\",\"@graph\":[{\"@type\":\"NewsArticle\",\"@id\":\"https:\\\/\\\/dailyai.com\\\/2023\\\/08\\\/ai-on-the-battlefield-who-is-responsible-if-it-goes-wrong\\\/#article\",\"isPartOf\":{\"@id\":\"https:\\\/\\\/dailyai.com\\\/2023\\\/08\\\/ai-on-the-battlefield-who-is-responsible-if-it-goes-wrong\\\/\"},\"author\":{\"name\":\"Sam Jeans\",\"@id\":\"https:\\\/\\\/dailyai.com\\\/#\\\/schema\\\/person\\\/711e81f945549438e8bbc579efdeb3c9\"},\"headline\":\"AI on the battlefield: who is responsible if it goes wrong?\",\"datePublished\":\"2023-08-27T20:07:21+00:00\",\"dateModified\":\"2023-08-30T21:09:12+00:00\",\"mainEntityOfPage\":{\"@id\":\"https:\\\/\\\/dailyai.com\\\/2023\\\/08\\\/ai-on-the-battlefield-who-is-responsible-if-it-goes-wrong\\\/\"},\"wordCount\":1414,\"publisher\":{\"@id\":\"https:\\\/\\\/dailyai.com\\\/#organization\"},\"image\":{\"@id\":\"https:\\\/\\\/dailyai.com\\\/2023\\\/08\\\/ai-on-the-battlefield-who-is-responsible-if-it-goes-wrong\\\/#primaryimage\"},\"thumbnailUrl\":\"https:\\\/\\\/dailyai.com\\\/wp-content\\\/uploads\\\/2023\\\/08\\\/shutterstock_2143842119.jpg\",\"keywords\":[\"AI risks\",\"AI weapons\",\"Battlefield\",\"DARPA\",\"Drones\",\"Ethics\",\"Palantir\",\"War\"],\"articleSection\":[\"Opinions &amp; Analysis\"],\"inLanguage\":\"nb-NO\"},{\"@type\":\"WebPage\",\"@id\":\"https:\\\/\\\/dailyai.com\\\/2023\\\/08\\\/ai-on-the-battlefield-who-is-responsible-if-it-goes-wrong\\\/\",\"url\":\"https:\\\/\\\/dailyai.com\\\/2023\\\/08\\\/ai-on-the-battlefield-who-is-responsible-if-it-goes-wrong\\\/\",\"name\":\"AI on the battlefield: who is responsible if it goes wrong? | DailyAI\",\"isPartOf\":{\"@id\":\"https:\\\/\\\/dailyai.com\\\/#website\"},\"primaryImageOfPage\":{\"@id\":\"https:\\\/\\\/dailyai.com\\\/2023\\\/08\\\/ai-on-the-battlefield-who-is-responsible-if-it-goes-wrong\\\/#primaryimage\"},\"image\":{\"@id\":\"https:\\\/\\\/dailyai.com\\\/2023\\\/08\\\/ai-on-the-battlefield-who-is-responsible-if-it-goes-wrong\\\/#primaryimage\"},\"thumbnailUrl\":\"https:\\\/\\\/dailyai.com\\\/wp-content\\\/uploads\\\/2023\\\/08\\\/shutterstock_2143842119.jpg\",\"datePublished\":\"2023-08-27T20:07:21+00:00\",\"dateModified\":\"2023-08-30T21:09:12+00:00\",\"description\":\"In a world where \\\"war games\\\" no longer refer solely to board games or video games but to life-and-death scenarios facilitated by machine intelligence, the question of ethical responsibility is monumental.\",\"breadcrumb\":{\"@id\":\"https:\\\/\\\/dailyai.com\\\/2023\\\/08\\\/ai-on-the-battlefield-who-is-responsible-if-it-goes-wrong\\\/#breadcrumb\"},\"inLanguage\":\"nb-NO\",\"potentialAction\":[{\"@type\":\"ReadAction\",\"target\":[\"https:\\\/\\\/dailyai.com\\\/2023\\\/08\\\/ai-on-the-battlefield-who-is-responsible-if-it-goes-wrong\\\/\"]}]},{\"@type\":\"ImageObject\",\"inLanguage\":\"nb-NO\",\"@id\":\"https:\\\/\\\/dailyai.com\\\/2023\\\/08\\\/ai-on-the-battlefield-who-is-responsible-if-it-goes-wrong\\\/#primaryimage\",\"url\":\"https:\\\/\\\/dailyai.com\\\/wp-content\\\/uploads\\\/2023\\\/08\\\/shutterstock_2143842119.jpg\",\"contentUrl\":\"https:\\\/\\\/dailyai.com\\\/wp-content\\\/uploads\\\/2023\\\/08\\\/shutterstock_2143842119.jpg\",\"width\":1000,\"height\":667,\"caption\":\"War crimes\"},{\"@type\":\"BreadcrumbList\",\"@id\":\"https:\\\/\\\/dailyai.com\\\/2023\\\/08\\\/ai-on-the-battlefield-who-is-responsible-if-it-goes-wrong\\\/#breadcrumb\",\"itemListElement\":[{\"@type\":\"ListItem\",\"position\":1,\"name\":\"Home\",\"item\":\"https:\\\/\\\/dailyai.com\\\/\"},{\"@type\":\"ListItem\",\"position\":2,\"name\":\"AI on the battlefield: who is responsible if it goes wrong?\"}]},{\"@type\":\"WebSite\",\"@id\":\"https:\\\/\\\/dailyai.com\\\/#website\",\"url\":\"https:\\\/\\\/dailyai.com\\\/\",\"name\":\"DailyAI\",\"description\":\"Your Daily Dose of AI News\",\"publisher\":{\"@id\":\"https:\\\/\\\/dailyai.com\\\/#organization\"},\"potentialAction\":[{\"@type\":\"SearchAction\",\"target\":{\"@type\":\"EntryPoint\",\"urlTemplate\":\"https:\\\/\\\/dailyai.com\\\/?s={search_term_string}\"},\"query-input\":{\"@type\":\"PropertyValueSpecification\",\"valueRequired\":true,\"valueName\":\"search_term_string\"}}],\"inLanguage\":\"nb-NO\"},{\"@type\":\"Organization\",\"@id\":\"https:\\\/\\\/dailyai.com\\\/#organization\",\"name\":\"DailyAI\",\"url\":\"https:\\\/\\\/dailyai.com\\\/\",\"logo\":{\"@type\":\"ImageObject\",\"inLanguage\":\"nb-NO\",\"@id\":\"https:\\\/\\\/dailyai.com\\\/#\\\/schema\\\/logo\\\/image\\\/\",\"url\":\"https:\\\/\\\/dailyai.com\\\/wp-content\\\/uploads\\\/2023\\\/06\\\/Daily-Ai_TL_colour.png\",\"contentUrl\":\"https:\\\/\\\/dailyai.com\\\/wp-content\\\/uploads\\\/2023\\\/06\\\/Daily-Ai_TL_colour.png\",\"width\":4501,\"height\":934,\"caption\":\"DailyAI\"},\"image\":{\"@id\":\"https:\\\/\\\/dailyai.com\\\/#\\\/schema\\\/logo\\\/image\\\/\"},\"sameAs\":[\"https:\\\/\\\/x.com\\\/DailyAIOfficial\",\"https:\\\/\\\/www.linkedin.com\\\/company\\\/dailyaiofficial\\\/\",\"https:\\\/\\\/www.youtube.com\\\/@DailyAIOfficial\"]},{\"@type\":\"Person\",\"@id\":\"https:\\\/\\\/dailyai.com\\\/#\\\/schema\\\/person\\\/711e81f945549438e8bbc579efdeb3c9\",\"name\":\"Sam Jeans\",\"image\":{\"@type\":\"ImageObject\",\"inLanguage\":\"nb-NO\",\"@id\":\"https:\\\/\\\/secure.gravatar.com\\\/avatar\\\/a24a4a8f8e2a1a275b7491dc9c9f032c401eabf23c3206da4628dc84b6dac5c8?s=96&d=robohash&r=g\",\"url\":\"https:\\\/\\\/secure.gravatar.com\\\/avatar\\\/a24a4a8f8e2a1a275b7491dc9c9f032c401eabf23c3206da4628dc84b6dac5c8?s=96&d=robohash&r=g\",\"contentUrl\":\"https:\\\/\\\/secure.gravatar.com\\\/avatar\\\/a24a4a8f8e2a1a275b7491dc9c9f032c401eabf23c3206da4628dc84b6dac5c8?s=96&d=robohash&r=g\",\"caption\":\"Sam Jeans\"},\"description\":\"Sam is a science and technology writer who has worked in various AI startups. When he\u2019s not writing, he can be found reading medical journals or digging through boxes of vinyl records.\",\"sameAs\":[\"https:\\\/\\\/www.linkedin.com\\\/in\\\/sam-jeans-6746b9142\\\/\"],\"url\":\"https:\\\/\\\/dailyai.com\\\/nb\\\/author\\\/samjeans\\\/\"}]}<\/script>\n<!-- \/ Yoast SEO plugin. -->","yoast_head_json":{"title":"AI p\u00e5 slagmarken: Hvem har ansvaret hvis det g\u00e5r galt? | DailyAI","description":"I en verden der \"krigsspill\" ikke lenger bare refererer til brettspill eller videospill, men til scenarier p\u00e5 liv og d\u00f8d tilrettelagt av maskinell intelligens, er sp\u00f8rsm\u00e5let om etisk ansvar monumentalt.","robots":{"index":"index","follow":"follow","max-snippet":"max-snippet:-1","max-image-preview":"max-image-preview:large","max-video-preview":"max-video-preview:-1"},"canonical":"https:\/\/dailyai.com\/nb\/2023\/08\/ai-on-the-battlefield-who-is-responsible-if-it-goes-wrong\/","og_locale":"nb_NO","og_type":"article","og_title":"AI on the battlefield: who is responsible if it goes wrong? | DailyAI","og_description":"In a world where \"war games\" no longer refer solely to board games or video games but to life-and-death scenarios facilitated by machine intelligence, the question of ethical responsibility is monumental.","og_url":"https:\/\/dailyai.com\/nb\/2023\/08\/ai-on-the-battlefield-who-is-responsible-if-it-goes-wrong\/","og_site_name":"DailyAI","article_published_time":"2023-08-27T20:07:21+00:00","article_modified_time":"2023-08-30T21:09:12+00:00","og_image":[{"width":1000,"height":667,"url":"https:\/\/dailyai.com\/wp-content\/uploads\/2023\/08\/shutterstock_2143842119.jpg","type":"image\/jpeg"}],"author":"Sam Jeans","twitter_card":"summary_large_image","twitter_creator":"@DailyAIOfficial","twitter_site":"@DailyAIOfficial","twitter_misc":{"Skrevet av":"Sam Jeans","Ansl. lesetid":"7 minutter"},"schema":{"@context":"https:\/\/schema.org","@graph":[{"@type":"NewsArticle","@id":"https:\/\/dailyai.com\/2023\/08\/ai-on-the-battlefield-who-is-responsible-if-it-goes-wrong\/#article","isPartOf":{"@id":"https:\/\/dailyai.com\/2023\/08\/ai-on-the-battlefield-who-is-responsible-if-it-goes-wrong\/"},"author":{"name":"Sam Jeans","@id":"https:\/\/dailyai.com\/#\/schema\/person\/711e81f945549438e8bbc579efdeb3c9"},"headline":"AI on the battlefield: who is responsible if it goes wrong?","datePublished":"2023-08-27T20:07:21+00:00","dateModified":"2023-08-30T21:09:12+00:00","mainEntityOfPage":{"@id":"https:\/\/dailyai.com\/2023\/08\/ai-on-the-battlefield-who-is-responsible-if-it-goes-wrong\/"},"wordCount":1414,"publisher":{"@id":"https:\/\/dailyai.com\/#organization"},"image":{"@id":"https:\/\/dailyai.com\/2023\/08\/ai-on-the-battlefield-who-is-responsible-if-it-goes-wrong\/#primaryimage"},"thumbnailUrl":"https:\/\/dailyai.com\/wp-content\/uploads\/2023\/08\/shutterstock_2143842119.jpg","keywords":["AI risks","AI weapons","Battlefield","DARPA","Drones","Ethics","Palantir","War"],"articleSection":["Opinions &amp; Analysis"],"inLanguage":"nb-NO"},{"@type":"WebPage","@id":"https:\/\/dailyai.com\/2023\/08\/ai-on-the-battlefield-who-is-responsible-if-it-goes-wrong\/","url":"https:\/\/dailyai.com\/2023\/08\/ai-on-the-battlefield-who-is-responsible-if-it-goes-wrong\/","name":"AI p\u00e5 slagmarken: Hvem har ansvaret hvis det g\u00e5r galt? | DailyAI","isPartOf":{"@id":"https:\/\/dailyai.com\/#website"},"primaryImageOfPage":{"@id":"https:\/\/dailyai.com\/2023\/08\/ai-on-the-battlefield-who-is-responsible-if-it-goes-wrong\/#primaryimage"},"image":{"@id":"https:\/\/dailyai.com\/2023\/08\/ai-on-the-battlefield-who-is-responsible-if-it-goes-wrong\/#primaryimage"},"thumbnailUrl":"https:\/\/dailyai.com\/wp-content\/uploads\/2023\/08\/shutterstock_2143842119.jpg","datePublished":"2023-08-27T20:07:21+00:00","dateModified":"2023-08-30T21:09:12+00:00","description":"I en verden der \"krigsspill\" ikke lenger bare refererer til brettspill eller videospill, men til scenarier p\u00e5 liv og d\u00f8d tilrettelagt av maskinell intelligens, er sp\u00f8rsm\u00e5let om etisk ansvar monumentalt.","breadcrumb":{"@id":"https:\/\/dailyai.com\/2023\/08\/ai-on-the-battlefield-who-is-responsible-if-it-goes-wrong\/#breadcrumb"},"inLanguage":"nb-NO","potentialAction":[{"@type":"ReadAction","target":["https:\/\/dailyai.com\/2023\/08\/ai-on-the-battlefield-who-is-responsible-if-it-goes-wrong\/"]}]},{"@type":"ImageObject","inLanguage":"nb-NO","@id":"https:\/\/dailyai.com\/2023\/08\/ai-on-the-battlefield-who-is-responsible-if-it-goes-wrong\/#primaryimage","url":"https:\/\/dailyai.com\/wp-content\/uploads\/2023\/08\/shutterstock_2143842119.jpg","contentUrl":"https:\/\/dailyai.com\/wp-content\/uploads\/2023\/08\/shutterstock_2143842119.jpg","width":1000,"height":667,"caption":"War crimes"},{"@type":"BreadcrumbList","@id":"https:\/\/dailyai.com\/2023\/08\/ai-on-the-battlefield-who-is-responsible-if-it-goes-wrong\/#breadcrumb","itemListElement":[{"@type":"ListItem","position":1,"name":"Home","item":"https:\/\/dailyai.com\/"},{"@type":"ListItem","position":2,"name":"AI on the battlefield: who is responsible if it goes wrong?"}]},{"@type":"WebSite","@id":"https:\/\/dailyai.com\/#website","url":"https:\/\/dailyai.com\/","name":"DagligAI","description":"Din daglige dose med AI-nyheter","publisher":{"@id":"https:\/\/dailyai.com\/#organization"},"potentialAction":[{"@type":"SearchAction","target":{"@type":"EntryPoint","urlTemplate":"https:\/\/dailyai.com\/?s={search_term_string}"},"query-input":{"@type":"PropertyValueSpecification","valueRequired":true,"valueName":"search_term_string"}}],"inLanguage":"nb-NO"},{"@type":"Organization","@id":"https:\/\/dailyai.com\/#organization","name":"DagligAI","url":"https:\/\/dailyai.com\/","logo":{"@type":"ImageObject","inLanguage":"nb-NO","@id":"https:\/\/dailyai.com\/#\/schema\/logo\/image\/","url":"https:\/\/dailyai.com\/wp-content\/uploads\/2023\/06\/Daily-Ai_TL_colour.png","contentUrl":"https:\/\/dailyai.com\/wp-content\/uploads\/2023\/06\/Daily-Ai_TL_colour.png","width":4501,"height":934,"caption":"DailyAI"},"image":{"@id":"https:\/\/dailyai.com\/#\/schema\/logo\/image\/"},"sameAs":["https:\/\/x.com\/DailyAIOfficial","https:\/\/www.linkedin.com\/company\/dailyaiofficial\/","https:\/\/www.youtube.com\/@DailyAIOfficial"]},{"@type":"Person","@id":"https:\/\/dailyai.com\/#\/schema\/person\/711e81f945549438e8bbc579efdeb3c9","name":"Sam Jeans","image":{"@type":"ImageObject","inLanguage":"nb-NO","@id":"https:\/\/secure.gravatar.com\/avatar\/a24a4a8f8e2a1a275b7491dc9c9f032c401eabf23c3206da4628dc84b6dac5c8?s=96&d=robohash&r=g","url":"https:\/\/secure.gravatar.com\/avatar\/a24a4a8f8e2a1a275b7491dc9c9f032c401eabf23c3206da4628dc84b6dac5c8?s=96&d=robohash&r=g","contentUrl":"https:\/\/secure.gravatar.com\/avatar\/a24a4a8f8e2a1a275b7491dc9c9f032c401eabf23c3206da4628dc84b6dac5c8?s=96&d=robohash&r=g","caption":"Sam Jeans"},"description":"Sam er en vitenskaps- og teknologiskribent som har jobbet i ulike oppstartsbedrifter innen kunstig intelligens. N\u00e5r han ikke skriver, leser han medisinske tidsskrifter eller graver seg gjennom esker med vinylplater.","sameAs":["https:\/\/www.linkedin.com\/in\/sam-jeans-6746b9142\/"],"url":"https:\/\/dailyai.com\/nb\/author\/samjeans\/"}]}},"_links":{"self":[{"href":"https:\/\/dailyai.com\/nb\/wp-json\/wp\/v2\/posts\/4724","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/dailyai.com\/nb\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/dailyai.com\/nb\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/dailyai.com\/nb\/wp-json\/wp\/v2\/users\/2"}],"replies":[{"embeddable":true,"href":"https:\/\/dailyai.com\/nb\/wp-json\/wp\/v2\/comments?post=4724"}],"version-history":[{"count":21,"href":"https:\/\/dailyai.com\/nb\/wp-json\/wp\/v2\/posts\/4724\/revisions"}],"predecessor-version":[{"id":4773,"href":"https:\/\/dailyai.com\/nb\/wp-json\/wp\/v2\/posts\/4724\/revisions\/4773"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/dailyai.com\/nb\/wp-json\/wp\/v2\/media\/4726"}],"wp:attachment":[{"href":"https:\/\/dailyai.com\/nb\/wp-json\/wp\/v2\/media?parent=4724"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/dailyai.com\/nb\/wp-json\/wp\/v2\/categories?post=4724"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/dailyai.com\/nb\/wp-json\/wp\/v2\/tags?post=4724"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}