{"id":4724,"date":"2023-08-27T20:07:21","date_gmt":"2023-08-27T20:07:21","guid":{"rendered":"https:\/\/dailyai.com\/?p=4724"},"modified":"2023-08-30T21:09:12","modified_gmt":"2023-08-30T21:09:12","slug":"ai-on-the-battlefield-who-is-responsible-if-it-goes-wrong","status":"publish","type":"post","link":"https:\/\/dailyai.com\/it\/2023\/08\/ai-on-the-battlefield-who-is-responsible-if-it-goes-wrong\/","title":{"rendered":"IA sul campo di battaglia: chi \u00e8 responsabile se va male?"},"content":{"rendered":"<p><strong>In un mondo in cui i \"giochi di guerra\" non si riferiscono pi\u00f9 solo a giochi da tavolo o videogiochi, ma a scenari di vita e di morte facilitati dall'intelligenza artificiale, la questione della responsabilit\u00e0 \u00e8 monumentale.<\/strong><\/p>\n<p><span style=\"font-weight: 400;\">Le forze armate stanno incrementando la ricerca e gli investimenti nell'IA. <\/span><\/p>\n<p><span style=\"font-weight: 400;\">Alcuni analisti hanno definito l'incontro israelo-palestinese del 2021, durato 11 giorni, come il primo \"<a href=\"https:\/\/dailyai.com\/it\/2023\/07\/israel-deploys-advanced-ai-onto-the-battlefield\/\">Guerra di intelligenza artificiale<\/a>dove le tecnologie israeliane hanno assistito l'intelligence e il dispiegamento sul campo di battaglia. <\/span><\/p>\n<p><span style=\"font-weight: 400;\">Negli ultimi mesi,<\/span><span style=\"font-weight: 400;\">\u00a0t<\/span><span style=\"font-weight: 400;\">e forze armate statunitensi hanno istituito un <\/span><a href=\"https:\/\/dailyai.com\/it\/2023\/08\/us-military-establishes-generative-ai-task-force\/\"><span style=\"font-weight: 400;\">task force sull'IA generativa<\/span><\/a><span style=\"font-weight: 400;\"> e ha testato con successo un <\/span><a href=\"https:\/\/dailyai.com\/it\/2023\/08\/the-us-air-force-confirms-successful-ai-powered-test-flight\/\"><span style=\"font-weight: 400;\">jet autonomo alimentato dall'intelligenza artificiale<\/span><\/a><span style=\"font-weight: 400;\">.<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Il ruolo crescente dell'IA in guerra presenta una serie di complessi dilemmi legali ed etici a cui non abbiamo ancora risposto, anche se la tecnologia militare alimentata dall'IA \u00e8 in fase di implementazione proprio in questo momento. <\/span><\/p>\n<h2><span style=\"font-weight: 400;\">Chi \u00e8 responsabile quando l'IA va male?<\/span><\/h2>\n<p><span style=\"font-weight: 400;\">Il produttore di tecnologia militare Rafael \"<a href=\"https:\/\/www.rafael.co.il\/worlds\/land\/multi-service-network-centric-warfare\/\">Tessitore di fuoco<\/a>\" localizza le posizioni del nemico utilizzando i sensori e suggerisce l'unit\u00e0 meglio posizionata per fare fuoco su di esso.\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Nella descrizione del prodotto si legge: \"Fire Weaver calcola le regole di ingaggio e dirige il puntamento e il fuoco, utilizzando il tiratore pi\u00f9 appropriato per ogni bersaglio acquisito\". <\/span><\/p>\n<p><span style=\"font-weight: 400;\">\"Calcola\" \u00e8 la parola chiave in questo caso.\u00a0<\/span><span style=\"font-weight: 400;\">Le armi dell'intelligenza artificiale possono ridurre la decisione di distruggere un bersaglio a una decisione binaria s\u00ec\/no, ma cosa succede se Fire Weaver scambia un bambino per un soldato nemico? O un camion di aiuti umanitari invece di un veicolo nemico?<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Attualmente, la mancanza di chiarezza morale, etica e legale \u00e8 evidente. L'IA occupa un vuoto giuridico ed etico che potrebbe durare ancora per un po' di tempo, dato che l'attivit\u00e0 legislativa \u00e8 notoriamente lenta e raramente si scontra con una tecnologia in cos\u00ec rapida evoluzione.\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Nella societ\u00e0 in generale, ci sono gi\u00e0 molti esempi di IA che compromettono le persone e i loro diritti. Questi esempi danno un'idea del vuoto legislativo ed etico creato dall'IA e dai suoi vari usi.\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Per esempio, <\/span><a href=\"https:\/\/dailyai.com\/it\/2023\/06\/first-in-kind-libel-lawsuit-filed-against-openai\/\"><span style=\"font-weight: 400;\">ChatGPT presunto<\/span><\/a><span style=\"font-weight: 400;\"> un uomo della Georgia, Mark Walters, \u00e8 stato giudicato colpevole di appropriazione indebita aziendale e ha accusato il professore di legge Jonathan Turley di violenza sessuale. Il ChatGPT era falso in entrambi i casi.<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Allo stesso modo, Getty Images e diversi artisti, autori e altri creatori hanno lanciato <a href=\"https:\/\/dailyai.com\/it\/2023\/07\/more-authors-attempt-to-sue-openai-for-using-copyright-material\/\">cause legali per il diritto d'autore<\/a> contro le aziende tecnologiche per l'utilizzo di dati di formazione per costruire i loro modelli.\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400;\">I dati di addestramento sono spesso raccolti da terze parti, come Common Crawl, e da \"biblioteche ombra\" come Bibliotik, simili a siti di torrent come PirateBay.\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400;\">In questo caso, chi \u00e8 responsabile della violazione del copyright? Gli sviluppatori dell'intelligenza artificiale o gli editori dei set di dati? \u00c8 un cerchio di responsabilit\u00e0 da cartone animato, in cui ogni potenziale colpevole indica chi gli sta accanto e, alla fine, tutti sfuggono alla colpa.\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Questo nebuloso panorama etico \u00e8 molto pi\u00f9 rischioso nel contesto delle armi AI e delle tattiche militari algoritmiche, dove i calcoli di un modello potrebbero letteralmente determinare la vita o la morte.\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Le organizzazioni militari sono gi\u00e0 consapevoli del cambiamento di paradigma rappresentato dalle armi AI. Secondo il Dipartimento della Difesa (DoD), il primo dei suoi cinque \"<\/span><a href=\"https:\/\/www.ai.mil\/docs\/Ethical_Principles_for_Artificial_Intelligence.pdf\"><span style=\"font-weight: 400;\">principi etici per l'intelligenza artificiale<\/span><\/a><span style=\"font-weight: 400;\">\"Per gli usi militari \u00e8 \"responsabile\", definito come \"il personale del Dipartimento della Difesa eserciter\u00e0 livelli appropriati di giudizio e attenzione, pur rimanendo responsabile dello sviluppo, dell'impiego e dell'uso delle capacit\u00e0 di IA\".<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Ci\u00f2 significa che un uomo deve essere responsabile delle azioni della macchina. Le forze armate si sono sempre basate sul principio che qualcuno - in genere il comandante o un soldato - deve essere ritenuto responsabile delle azioni intraprese in guerra. Tuttavia, il ruolo dell'IA nel processo decisionale \u00e8 sempre pi\u00f9 oscuro.\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400;\">La prima domanda \u00e8: dato che l'IA assume ruoli sempre pi\u00f9 sofisticati nel targeting, nella sorveglianza e in altre aree, premere il pulsante \"Approva\" equivale a essere colpevoli?\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Se le previsioni dell'IA fallissero, ad esempio, causando vittime tra i civili, non \u00e8 certo che qualcuno accetterebbe che \"la macchina\" sia l'unica responsabile di un incidente.\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400;\">A loro volta, possono verificarsi situazioni in cui gli esseri umani vengono ingiustamente incolpati per il loro ruolo in un incidente a cui non hanno contribuito, cosa che l'antropologo M.C. Elish descrive come una \"<\/span><a href=\"https:\/\/estsjournal.org\/index.php\/ests\/article\/view\/260\"><span style=\"font-weight: 400;\">zona di accartocciamento morale<\/span><\/a><span style=\"font-weight: 400;\">.\"\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Le ricerche di Elish sugli incidenti industriali e di macchine suggeriscono che gli esseri umani tendono ad assorbire la colpa in ogni incidente, anche se la colpa \u00e8 della macchina, dell'algoritmo o del decisore che ha approvato la tecnologia in primo luogo.\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400;\">L'autrice si basa su diversi esempi reali, come l'incidente nucleare di Three Mile Island, in Pennsylvania, e l'incidente del volo Air France 447, che sono stati in gran parte attribuiti a un \"errore umano\" piuttosto che a una serie pi\u00f9 intricata di guasti distribuiti tra pi\u00f9 individui e sistemi.\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400;\">In merito alla responsabilit\u00e0 nell'era dell'IA, Elish afferma: \"Per quanto riguarda le tecnologie autonome e robotiche, i regolamenti, le leggi e le norme sono ancora in fase di formazione e possono essere particolarmente suscettibili di incertezze o addirittura di elusioni della responsabilit\u00e0\".<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Ci\u00f2 solleva anche questioni relative al ruolo dei processi democratici in guerra e alla sovranit\u00e0 del processo decisionale umano. Quando la guerra del Vietnam \u00e8 stata trasmessa nei salotti di tutta l'America, l'immediatezza del tributo della guerra ha avuto un impatto sull'opinione pubblica e sulla politica.\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Al contrario, il combattimento assistito dall'IA potrebbe eliminare i controlli e gli equilibri sociali dal sentimento pubblico e dal discorso democratico.<\/span><\/p>\n<p><span style=\"font-weight: 400;\">L'etico e filosofo Thomas Metzinger sottolinea che le norme etiche non sono solo costruzioni legali, ma anche sociali che nascono dai processi democratici. <\/span><\/p>\n<p><span style=\"font-weight: 400;\">Se sono gli algoritmi a prendere le decisioni, il coinvolgimento umano - e quindi la responsabilit\u00e0 morale - diventa diffuso e ridondante.\u00a0<\/span><\/p>\n<h2><span style=\"font-weight: 400;\">Implicazioni legali internazionali dell'IA in guerra<\/span><\/h2>\n<p><span style=\"font-weight: 400;\">Uno dei pilastri della Convenzione di Ginevra \u00e8 il principio della \"distinzione\", che impone di distinguere tra combattenti e civili.\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400;\">La tecnologia ha gi\u00e0 dimostrato di non essere in grado di mantenere le promesse di una maggiore protezione dei civili: solo 10% delle persone uccise negli attacchi dei droni statunitensi durante la presidenza Obama erano i bersagli previsti, secondo i documenti trapelati da <\/span><a href=\"https:\/\/theintercept.com\/drone-papers\/\"><span style=\"font-weight: 400;\">L'intercettazione<\/span><\/a><span style=\"font-weight: 400;\">.\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Gli algoritmi di intelligenza artificiale sono validi quanto i dati su cui vengono addestrati e le regole che sono programmati per seguire. In guerra, un algoritmo potrebbe interpretare male i dati a causa della nebbia di guerra, di dati di addestramento errati o di tattiche nemiche intenzionalmente ingannevoli.\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Il Comitato Internazionale della Croce Rossa (CICR) ha avviato discussioni sulla legalit\u00e0 dei sistemi di armi autonome ai sensi del diritto internazionale umanitario vigente, ma le definizioni concrete sono poche.\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Essi stabiliscono che le strutture esistenti non sono adatte alle nuove sfide poste dall'IA e la <\/span><a href=\"https:\/\/www.icrc.org\/en\/document\/artificial-intelligence-and-machine-learning-armed-conflict-human-centred-approach%C2%A0\"><span style=\"font-weight: 400;\">I principi proposti dal CICR<\/span><\/a><span style=\"font-weight: 400;\"> sono vaghi; ad esempio, \"i sistemi d'arma autonomi imprevedibili dovrebbero essere espressamente esclusi\". <\/span><\/p>\n<p><span style=\"font-weight: 400;\">Dove stabiliamo la soglia di \"imprevedibilit\u00e0\" quando un minuscolo errore potrebbe essere catastrofico?<\/span><\/p>\n<p><iframe loading=\"lazy\" title=\"Quali sono i pericoli delle armi autonome? | Le leggi della guerra | CICR\" width=\"1080\" height=\"608\" src=\"https:\/\/www.youtube.com\/embed\/8GwBTFRFlzA?feature=oembed\" frameborder=\"0\" allow=\"accelerometer; autoplay; clipboard-write; encrypted-media; gyroscope; picture-in-picture; web-share\" referrerpolicy=\"strict-origin-when-cross-origin\" allowfullscreen><\/iframe><\/p>\n<p><span style=\"font-weight: 400;\">Inoltre, il campo di battaglia \u00e8 in continua evoluzione e presenter\u00e0 \"casi limite\", ossia punti ciechi non considerati nell'addestramento dell'IA. Costruire sistemi di IA che rispondano a condizioni ambientali dinamiche con gli stessi tempi di reazione degli esseri umani \u00e8 eccezionalmente difficile.\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Mentre le armi dell'intelligenza artificiale potrebbero mantenere la precisione in scenari tipici del campo di battaglia, cosa succede quando l'ambiente si allontana da quella che il modello ritiene essere la \"verit\u00e0 di base\" o quando casi limite ne compromettono la precisione?<\/span><\/p>\n<h2><span style=\"font-weight: 400;\">Erosione della sensibilit\u00e0 morale<\/span><\/h2>\n<p><span style=\"font-weight: 400;\">L'atto di uccidere in guerra \u00e8 cambiato enormemente con l'avvento delle moderne strategie e tattiche militari.\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Durante la Prima Guerra Mondiale, analisi e resoconti storici come il controverso libro di S.L.A. Marshall \"<\/span><a href=\"https:\/\/history.army.mil\/html\/books\/070\/70-64\/cmhPub_70-64.pdf\"><span style=\"font-weight: 400;\">Uomini contro il fuoco<\/span><\/a><span style=\"font-weight: 400;\">\" suggeriscono che solo dal 15 al 25% dei soldati in prima linea hanno sparato con l'intento di uccidere.\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Oggi, un soldato che opera con un drone a migliaia di chilometri di distanza non sperimenta l'impatto emotivo e psicologico immediato delle sue azioni, il che \u00e8 stato indicato da un'incidenza generalmente inferiore di PTSD e altri problemi di salute mentale rispetto a chi presta servizio sul campo.<\/span><\/p>\n<p><span style=\"font-weight: 400;\"> Il design stesso della tecnologia militare si \u00e8 adattato ai nuovi paradigmi della \"guerra a distanza\". I controller utilizzati per i droni sono stati notati per la loro somiglianza con i controller dei videogiochi, una scelta progettuale che potrebbe non essere casuale.<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Gli operatori dell'intelligenza artificiale possono prendere decisioni di vita o di morte in un ambiente che astrae la realt\u00e0 della guerra in punti di dati e immagini su uno schermo, separando la realt\u00e0 dalla realt\u00e0.<\/span><span style=\"font-weight: 400;\"> l'ultimo legame morale che abbiamo con le vite di coloro che sono coinvolti nel conflitto.\u00a0<\/span><\/p>\n<h2><span style=\"font-weight: 400;\">Dove andiamo a finire?<\/span><\/h2>\n<p><span style=\"font-weight: 400;\">L'IA militare si evolve in qualcosa che molti temono seriamente, attribuendo la responsabilit\u00e0 di errori e fallimenti a una singola persona, <\/span><span style=\"font-weight: 400;\">sviluppatori, organizzazioni o interi gruppi sembra improbabile.\u00a0<\/span><\/p>\n<p>Chi, o cosa, lascia la responsabilit\u00e0? H<span style=\"font-weight: 400;\">ome evitare di entrare in un futuro in cui l'uccisione diventa pi\u00f9 macchina che uomo e in cui la responsabilit\u00e0 etica si disperde in astrazioni algoritmiche?\u00a0<\/span><\/p>\n<p>Col tempo, sistemi artificiali sempre pi\u00f9 intelligenti trasformeranno probabilmente il tessuto dell'etica e della responsabilit\u00e0, soprattutto se mostreranno segni di senzienza o coscienza.<\/p>\n<p>Ma questo non spiega come viene gestita la situazione nel presente e, come molte cose nel mondo dell'IA, ci sono pi\u00f9 domande che risposte.<\/p>","protected":false},"excerpt":{"rendered":"<p>In un mondo in cui i \"giochi di guerra\" non si riferiscono pi\u00f9 solo a giochi da tavolo o videogiochi, ma a scenari di vita e di morte facilitati dall'intelligenza artificiale, la questione della responsabilit\u00e0 \u00e8 monumentale. Le forze armate stanno aumentando la ricerca e gli investimenti nell'IA. Alcuni analisti hanno definito l'incontro israelo-palestinese del 2021, durato 11 giorni, come la prima \"guerra dell'intelligenza artificiale\", in cui le tecnologie israeliane hanno contribuito all'intelligence e al dispiegamento sul campo di battaglia. Negli ultimi mesi, l'esercito statunitense ha istituito una task force per l'IA generativa e ha testato con successo un jet autonomo alimentato dall'IA. Il ruolo crescente dell'IA in guerra presenta una serie di complessi dilemmi giuridici ed etici a cui non abbiamo ancora risposto, nonostante<\/p>","protected":false},"author":2,"featured_media":4726,"comment_status":"closed","ping_status":"open","sticky":false,"template":"","format":"standard","meta":{"footnotes":""},"categories":[87],"tags":[163,302,346,294,277,348,347,345],"class_list":["post-4724","post","type-post","status-publish","format-standard","has-post-thumbnail","hentry","category-opinions","tag-ai-risks","tag-ai-weapons","tag-battlefield","tag-darpa","tag-drones","tag-ethics","tag-palantir","tag-war"],"yoast_head":"<!-- This site is optimized with the Yoast SEO plugin v27.4 - https:\/\/yoast.com\/product\/yoast-seo-wordpress\/ -->\n<title>AI on the battlefield: who is responsible if it goes wrong? | DailyAI<\/title>\n<meta name=\"description\" content=\"In a world where &quot;war games&quot; no longer refer solely to board games or video games but to life-and-death scenarios facilitated by machine intelligence, the question of ethical responsibility is monumental.\" \/>\n<meta name=\"robots\" content=\"index, follow, max-snippet:-1, max-image-preview:large, max-video-preview:-1\" \/>\n<link rel=\"canonical\" href=\"https:\/\/dailyai.com\/it\/2023\/08\/ai-on-the-battlefield-who-is-responsible-if-it-goes-wrong\/\" \/>\n<meta property=\"og:locale\" content=\"it_IT\" \/>\n<meta property=\"og:type\" content=\"article\" \/>\n<meta property=\"og:title\" content=\"AI on the battlefield: who is responsible if it goes wrong? | DailyAI\" \/>\n<meta property=\"og:description\" content=\"In a world where &quot;war games&quot; no longer refer solely to board games or video games but to life-and-death scenarios facilitated by machine intelligence, the question of ethical responsibility is monumental.\" \/>\n<meta property=\"og:url\" content=\"https:\/\/dailyai.com\/it\/2023\/08\/ai-on-the-battlefield-who-is-responsible-if-it-goes-wrong\/\" \/>\n<meta property=\"og:site_name\" content=\"DailyAI\" \/>\n<meta property=\"article:published_time\" content=\"2023-08-27T20:07:21+00:00\" \/>\n<meta property=\"article:modified_time\" content=\"2023-08-30T21:09:12+00:00\" \/>\n<meta property=\"og:image\" content=\"https:\/\/dailyai.com\/wp-content\/uploads\/2023\/08\/shutterstock_2143842119.jpg\" \/>\n\t<meta property=\"og:image:width\" content=\"1000\" \/>\n\t<meta property=\"og:image:height\" content=\"667\" \/>\n\t<meta property=\"og:image:type\" content=\"image\/jpeg\" \/>\n<meta name=\"author\" content=\"Sam Jeans\" \/>\n<meta name=\"twitter:card\" content=\"summary_large_image\" \/>\n<meta name=\"twitter:creator\" content=\"@DailyAIOfficial\" \/>\n<meta name=\"twitter:site\" content=\"@DailyAIOfficial\" \/>\n<meta name=\"twitter:label1\" content=\"Scritto da\" \/>\n\t<meta name=\"twitter:data1\" content=\"Sam Jeans\" \/>\n\t<meta name=\"twitter:label2\" content=\"Tempo di lettura stimato\" \/>\n\t<meta name=\"twitter:data2\" content=\"7 minuti\" \/>\n<script type=\"application\/ld+json\" class=\"yoast-schema-graph\">{\"@context\":\"https:\\\/\\\/schema.org\",\"@graph\":[{\"@type\":\"NewsArticle\",\"@id\":\"https:\\\/\\\/dailyai.com\\\/2023\\\/08\\\/ai-on-the-battlefield-who-is-responsible-if-it-goes-wrong\\\/#article\",\"isPartOf\":{\"@id\":\"https:\\\/\\\/dailyai.com\\\/2023\\\/08\\\/ai-on-the-battlefield-who-is-responsible-if-it-goes-wrong\\\/\"},\"author\":{\"name\":\"Sam Jeans\",\"@id\":\"https:\\\/\\\/dailyai.com\\\/#\\\/schema\\\/person\\\/711e81f945549438e8bbc579efdeb3c9\"},\"headline\":\"AI on the battlefield: who is responsible if it goes wrong?\",\"datePublished\":\"2023-08-27T20:07:21+00:00\",\"dateModified\":\"2023-08-30T21:09:12+00:00\",\"mainEntityOfPage\":{\"@id\":\"https:\\\/\\\/dailyai.com\\\/2023\\\/08\\\/ai-on-the-battlefield-who-is-responsible-if-it-goes-wrong\\\/\"},\"wordCount\":1414,\"publisher\":{\"@id\":\"https:\\\/\\\/dailyai.com\\\/#organization\"},\"image\":{\"@id\":\"https:\\\/\\\/dailyai.com\\\/2023\\\/08\\\/ai-on-the-battlefield-who-is-responsible-if-it-goes-wrong\\\/#primaryimage\"},\"thumbnailUrl\":\"https:\\\/\\\/dailyai.com\\\/wp-content\\\/uploads\\\/2023\\\/08\\\/shutterstock_2143842119.jpg\",\"keywords\":[\"AI risks\",\"AI weapons\",\"Battlefield\",\"DARPA\",\"Drones\",\"Ethics\",\"Palantir\",\"War\"],\"articleSection\":[\"Opinions &amp; Analysis\"],\"inLanguage\":\"it-IT\"},{\"@type\":\"WebPage\",\"@id\":\"https:\\\/\\\/dailyai.com\\\/2023\\\/08\\\/ai-on-the-battlefield-who-is-responsible-if-it-goes-wrong\\\/\",\"url\":\"https:\\\/\\\/dailyai.com\\\/2023\\\/08\\\/ai-on-the-battlefield-who-is-responsible-if-it-goes-wrong\\\/\",\"name\":\"AI on the battlefield: who is responsible if it goes wrong? | DailyAI\",\"isPartOf\":{\"@id\":\"https:\\\/\\\/dailyai.com\\\/#website\"},\"primaryImageOfPage\":{\"@id\":\"https:\\\/\\\/dailyai.com\\\/2023\\\/08\\\/ai-on-the-battlefield-who-is-responsible-if-it-goes-wrong\\\/#primaryimage\"},\"image\":{\"@id\":\"https:\\\/\\\/dailyai.com\\\/2023\\\/08\\\/ai-on-the-battlefield-who-is-responsible-if-it-goes-wrong\\\/#primaryimage\"},\"thumbnailUrl\":\"https:\\\/\\\/dailyai.com\\\/wp-content\\\/uploads\\\/2023\\\/08\\\/shutterstock_2143842119.jpg\",\"datePublished\":\"2023-08-27T20:07:21+00:00\",\"dateModified\":\"2023-08-30T21:09:12+00:00\",\"description\":\"In a world where \\\"war games\\\" no longer refer solely to board games or video games but to life-and-death scenarios facilitated by machine intelligence, the question of ethical responsibility is monumental.\",\"breadcrumb\":{\"@id\":\"https:\\\/\\\/dailyai.com\\\/2023\\\/08\\\/ai-on-the-battlefield-who-is-responsible-if-it-goes-wrong\\\/#breadcrumb\"},\"inLanguage\":\"it-IT\",\"potentialAction\":[{\"@type\":\"ReadAction\",\"target\":[\"https:\\\/\\\/dailyai.com\\\/2023\\\/08\\\/ai-on-the-battlefield-who-is-responsible-if-it-goes-wrong\\\/\"]}]},{\"@type\":\"ImageObject\",\"inLanguage\":\"it-IT\",\"@id\":\"https:\\\/\\\/dailyai.com\\\/2023\\\/08\\\/ai-on-the-battlefield-who-is-responsible-if-it-goes-wrong\\\/#primaryimage\",\"url\":\"https:\\\/\\\/dailyai.com\\\/wp-content\\\/uploads\\\/2023\\\/08\\\/shutterstock_2143842119.jpg\",\"contentUrl\":\"https:\\\/\\\/dailyai.com\\\/wp-content\\\/uploads\\\/2023\\\/08\\\/shutterstock_2143842119.jpg\",\"width\":1000,\"height\":667,\"caption\":\"War crimes\"},{\"@type\":\"BreadcrumbList\",\"@id\":\"https:\\\/\\\/dailyai.com\\\/2023\\\/08\\\/ai-on-the-battlefield-who-is-responsible-if-it-goes-wrong\\\/#breadcrumb\",\"itemListElement\":[{\"@type\":\"ListItem\",\"position\":1,\"name\":\"Home\",\"item\":\"https:\\\/\\\/dailyai.com\\\/\"},{\"@type\":\"ListItem\",\"position\":2,\"name\":\"AI on the battlefield: who is responsible if it goes wrong?\"}]},{\"@type\":\"WebSite\",\"@id\":\"https:\\\/\\\/dailyai.com\\\/#website\",\"url\":\"https:\\\/\\\/dailyai.com\\\/\",\"name\":\"DailyAI\",\"description\":\"Your Daily Dose of AI News\",\"publisher\":{\"@id\":\"https:\\\/\\\/dailyai.com\\\/#organization\"},\"potentialAction\":[{\"@type\":\"SearchAction\",\"target\":{\"@type\":\"EntryPoint\",\"urlTemplate\":\"https:\\\/\\\/dailyai.com\\\/?s={search_term_string}\"},\"query-input\":{\"@type\":\"PropertyValueSpecification\",\"valueRequired\":true,\"valueName\":\"search_term_string\"}}],\"inLanguage\":\"it-IT\"},{\"@type\":\"Organization\",\"@id\":\"https:\\\/\\\/dailyai.com\\\/#organization\",\"name\":\"DailyAI\",\"url\":\"https:\\\/\\\/dailyai.com\\\/\",\"logo\":{\"@type\":\"ImageObject\",\"inLanguage\":\"it-IT\",\"@id\":\"https:\\\/\\\/dailyai.com\\\/#\\\/schema\\\/logo\\\/image\\\/\",\"url\":\"https:\\\/\\\/dailyai.com\\\/wp-content\\\/uploads\\\/2023\\\/06\\\/Daily-Ai_TL_colour.png\",\"contentUrl\":\"https:\\\/\\\/dailyai.com\\\/wp-content\\\/uploads\\\/2023\\\/06\\\/Daily-Ai_TL_colour.png\",\"width\":4501,\"height\":934,\"caption\":\"DailyAI\"},\"image\":{\"@id\":\"https:\\\/\\\/dailyai.com\\\/#\\\/schema\\\/logo\\\/image\\\/\"},\"sameAs\":[\"https:\\\/\\\/x.com\\\/DailyAIOfficial\",\"https:\\\/\\\/www.linkedin.com\\\/company\\\/dailyaiofficial\\\/\",\"https:\\\/\\\/www.youtube.com\\\/@DailyAIOfficial\"]},{\"@type\":\"Person\",\"@id\":\"https:\\\/\\\/dailyai.com\\\/#\\\/schema\\\/person\\\/711e81f945549438e8bbc579efdeb3c9\",\"name\":\"Sam Jeans\",\"image\":{\"@type\":\"ImageObject\",\"inLanguage\":\"it-IT\",\"@id\":\"https:\\\/\\\/secure.gravatar.com\\\/avatar\\\/a24a4a8f8e2a1a275b7491dc9c9f032c401eabf23c3206da4628dc84b6dac5c8?s=96&d=robohash&r=g\",\"url\":\"https:\\\/\\\/secure.gravatar.com\\\/avatar\\\/a24a4a8f8e2a1a275b7491dc9c9f032c401eabf23c3206da4628dc84b6dac5c8?s=96&d=robohash&r=g\",\"contentUrl\":\"https:\\\/\\\/secure.gravatar.com\\\/avatar\\\/a24a4a8f8e2a1a275b7491dc9c9f032c401eabf23c3206da4628dc84b6dac5c8?s=96&d=robohash&r=g\",\"caption\":\"Sam Jeans\"},\"description\":\"Sam is a science and technology writer who has worked in various AI startups. When he\u2019s not writing, he can be found reading medical journals or digging through boxes of vinyl records.\",\"sameAs\":[\"https:\\\/\\\/www.linkedin.com\\\/in\\\/sam-jeans-6746b9142\\\/\"],\"url\":\"https:\\\/\\\/dailyai.com\\\/it\\\/author\\\/samjeans\\\/\"}]}<\/script>\n<!-- \/ Yoast SEO plugin. -->","yoast_head_json":{"title":"AI sul campo di battaglia: chi \u00e8 responsabile se va male? | QuotidianoAI","description":"In un mondo in cui i \"giochi di guerra\" non si riferiscono pi\u00f9 solo a giochi da tavolo o videogiochi, ma a scenari di vita e di morte facilitati dall'intelligenza artificiale, la questione della responsabilit\u00e0 etica \u00e8 monumentale.","robots":{"index":"index","follow":"follow","max-snippet":"max-snippet:-1","max-image-preview":"max-image-preview:large","max-video-preview":"max-video-preview:-1"},"canonical":"https:\/\/dailyai.com\/it\/2023\/08\/ai-on-the-battlefield-who-is-responsible-if-it-goes-wrong\/","og_locale":"it_IT","og_type":"article","og_title":"AI on the battlefield: who is responsible if it goes wrong? | DailyAI","og_description":"In a world where \"war games\" no longer refer solely to board games or video games but to life-and-death scenarios facilitated by machine intelligence, the question of ethical responsibility is monumental.","og_url":"https:\/\/dailyai.com\/it\/2023\/08\/ai-on-the-battlefield-who-is-responsible-if-it-goes-wrong\/","og_site_name":"DailyAI","article_published_time":"2023-08-27T20:07:21+00:00","article_modified_time":"2023-08-30T21:09:12+00:00","og_image":[{"width":1000,"height":667,"url":"https:\/\/dailyai.com\/wp-content\/uploads\/2023\/08\/shutterstock_2143842119.jpg","type":"image\/jpeg"}],"author":"Sam Jeans","twitter_card":"summary_large_image","twitter_creator":"@DailyAIOfficial","twitter_site":"@DailyAIOfficial","twitter_misc":{"Scritto da":"Sam Jeans","Tempo di lettura stimato":"7 minuti"},"schema":{"@context":"https:\/\/schema.org","@graph":[{"@type":"NewsArticle","@id":"https:\/\/dailyai.com\/2023\/08\/ai-on-the-battlefield-who-is-responsible-if-it-goes-wrong\/#article","isPartOf":{"@id":"https:\/\/dailyai.com\/2023\/08\/ai-on-the-battlefield-who-is-responsible-if-it-goes-wrong\/"},"author":{"name":"Sam Jeans","@id":"https:\/\/dailyai.com\/#\/schema\/person\/711e81f945549438e8bbc579efdeb3c9"},"headline":"AI on the battlefield: who is responsible if it goes wrong?","datePublished":"2023-08-27T20:07:21+00:00","dateModified":"2023-08-30T21:09:12+00:00","mainEntityOfPage":{"@id":"https:\/\/dailyai.com\/2023\/08\/ai-on-the-battlefield-who-is-responsible-if-it-goes-wrong\/"},"wordCount":1414,"publisher":{"@id":"https:\/\/dailyai.com\/#organization"},"image":{"@id":"https:\/\/dailyai.com\/2023\/08\/ai-on-the-battlefield-who-is-responsible-if-it-goes-wrong\/#primaryimage"},"thumbnailUrl":"https:\/\/dailyai.com\/wp-content\/uploads\/2023\/08\/shutterstock_2143842119.jpg","keywords":["AI risks","AI weapons","Battlefield","DARPA","Drones","Ethics","Palantir","War"],"articleSection":["Opinions &amp; Analysis"],"inLanguage":"it-IT"},{"@type":"WebPage","@id":"https:\/\/dailyai.com\/2023\/08\/ai-on-the-battlefield-who-is-responsible-if-it-goes-wrong\/","url":"https:\/\/dailyai.com\/2023\/08\/ai-on-the-battlefield-who-is-responsible-if-it-goes-wrong\/","name":"AI sul campo di battaglia: chi \u00e8 responsabile se va male? | QuotidianoAI","isPartOf":{"@id":"https:\/\/dailyai.com\/#website"},"primaryImageOfPage":{"@id":"https:\/\/dailyai.com\/2023\/08\/ai-on-the-battlefield-who-is-responsible-if-it-goes-wrong\/#primaryimage"},"image":{"@id":"https:\/\/dailyai.com\/2023\/08\/ai-on-the-battlefield-who-is-responsible-if-it-goes-wrong\/#primaryimage"},"thumbnailUrl":"https:\/\/dailyai.com\/wp-content\/uploads\/2023\/08\/shutterstock_2143842119.jpg","datePublished":"2023-08-27T20:07:21+00:00","dateModified":"2023-08-30T21:09:12+00:00","description":"In un mondo in cui i \"giochi di guerra\" non si riferiscono pi\u00f9 solo a giochi da tavolo o videogiochi, ma a scenari di vita e di morte facilitati dall'intelligenza artificiale, la questione della responsabilit\u00e0 etica \u00e8 monumentale.","breadcrumb":{"@id":"https:\/\/dailyai.com\/2023\/08\/ai-on-the-battlefield-who-is-responsible-if-it-goes-wrong\/#breadcrumb"},"inLanguage":"it-IT","potentialAction":[{"@type":"ReadAction","target":["https:\/\/dailyai.com\/2023\/08\/ai-on-the-battlefield-who-is-responsible-if-it-goes-wrong\/"]}]},{"@type":"ImageObject","inLanguage":"it-IT","@id":"https:\/\/dailyai.com\/2023\/08\/ai-on-the-battlefield-who-is-responsible-if-it-goes-wrong\/#primaryimage","url":"https:\/\/dailyai.com\/wp-content\/uploads\/2023\/08\/shutterstock_2143842119.jpg","contentUrl":"https:\/\/dailyai.com\/wp-content\/uploads\/2023\/08\/shutterstock_2143842119.jpg","width":1000,"height":667,"caption":"War crimes"},{"@type":"BreadcrumbList","@id":"https:\/\/dailyai.com\/2023\/08\/ai-on-the-battlefield-who-is-responsible-if-it-goes-wrong\/#breadcrumb","itemListElement":[{"@type":"ListItem","position":1,"name":"Home","item":"https:\/\/dailyai.com\/"},{"@type":"ListItem","position":2,"name":"AI on the battlefield: who is responsible if it goes wrong?"}]},{"@type":"WebSite","@id":"https:\/\/dailyai.com\/#website","url":"https:\/\/dailyai.com\/","name":"DailyAI","description":"La vostra dose quotidiana di notizie sull'intelligenza artificiale","publisher":{"@id":"https:\/\/dailyai.com\/#organization"},"potentialAction":[{"@type":"SearchAction","target":{"@type":"EntryPoint","urlTemplate":"https:\/\/dailyai.com\/?s={search_term_string}"},"query-input":{"@type":"PropertyValueSpecification","valueRequired":true,"valueName":"search_term_string"}}],"inLanguage":"it-IT"},{"@type":"Organization","@id":"https:\/\/dailyai.com\/#organization","name":"DailyAI","url":"https:\/\/dailyai.com\/","logo":{"@type":"ImageObject","inLanguage":"it-IT","@id":"https:\/\/dailyai.com\/#\/schema\/logo\/image\/","url":"https:\/\/dailyai.com\/wp-content\/uploads\/2023\/06\/Daily-Ai_TL_colour.png","contentUrl":"https:\/\/dailyai.com\/wp-content\/uploads\/2023\/06\/Daily-Ai_TL_colour.png","width":4501,"height":934,"caption":"DailyAI"},"image":{"@id":"https:\/\/dailyai.com\/#\/schema\/logo\/image\/"},"sameAs":["https:\/\/x.com\/DailyAIOfficial","https:\/\/www.linkedin.com\/company\/dailyaiofficial\/","https:\/\/www.youtube.com\/@DailyAIOfficial"]},{"@type":"Person","@id":"https:\/\/dailyai.com\/#\/schema\/person\/711e81f945549438e8bbc579efdeb3c9","name":"Sam Jeans","image":{"@type":"ImageObject","inLanguage":"it-IT","@id":"https:\/\/secure.gravatar.com\/avatar\/a24a4a8f8e2a1a275b7491dc9c9f032c401eabf23c3206da4628dc84b6dac5c8?s=96&d=robohash&r=g","url":"https:\/\/secure.gravatar.com\/avatar\/a24a4a8f8e2a1a275b7491dc9c9f032c401eabf23c3206da4628dc84b6dac5c8?s=96&d=robohash&r=g","contentUrl":"https:\/\/secure.gravatar.com\/avatar\/a24a4a8f8e2a1a275b7491dc9c9f032c401eabf23c3206da4628dc84b6dac5c8?s=96&d=robohash&r=g","caption":"Sam Jeans"},"description":"Sam \u00e8 uno scrittore di scienza e tecnologia che ha lavorato in diverse startup di intelligenza artificiale. Quando non scrive, lo si pu\u00f2 trovare a leggere riviste mediche o a scavare tra scatole di dischi in vinile.","sameAs":["https:\/\/www.linkedin.com\/in\/sam-jeans-6746b9142\/"],"url":"https:\/\/dailyai.com\/it\/author\/samjeans\/"}]}},"_links":{"self":[{"href":"https:\/\/dailyai.com\/it\/wp-json\/wp\/v2\/posts\/4724","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/dailyai.com\/it\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/dailyai.com\/it\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/dailyai.com\/it\/wp-json\/wp\/v2\/users\/2"}],"replies":[{"embeddable":true,"href":"https:\/\/dailyai.com\/it\/wp-json\/wp\/v2\/comments?post=4724"}],"version-history":[{"count":21,"href":"https:\/\/dailyai.com\/it\/wp-json\/wp\/v2\/posts\/4724\/revisions"}],"predecessor-version":[{"id":4773,"href":"https:\/\/dailyai.com\/it\/wp-json\/wp\/v2\/posts\/4724\/revisions\/4773"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/dailyai.com\/it\/wp-json\/wp\/v2\/media\/4726"}],"wp:attachment":[{"href":"https:\/\/dailyai.com\/it\/wp-json\/wp\/v2\/media?parent=4724"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/dailyai.com\/it\/wp-json\/wp\/v2\/categories?post=4724"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/dailyai.com\/it\/wp-json\/wp\/v2\/tags?post=4724"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}