{"id":4724,"date":"2023-08-27T20:07:21","date_gmt":"2023-08-27T20:07:21","guid":{"rendered":"https:\/\/dailyai.com\/?p=4724"},"modified":"2023-08-30T21:09:12","modified_gmt":"2023-08-30T21:09:12","slug":"ai-on-the-battlefield-who-is-responsible-if-it-goes-wrong","status":"publish","type":"post","link":"https:\/\/dailyai.com\/es\/2023\/08\/ai-on-the-battlefield-who-is-responsible-if-it-goes-wrong\/","title":{"rendered":"IA en el campo de batalla: \u00bfqui\u00e9n es responsable si sale mal?"},"content":{"rendered":"<p><strong>En un mundo en el que los \"juegos de guerra\" ya no se refieren \u00fanicamente a juegos de mesa o videojuegos, sino a escenarios de vida o muerte facilitados por la inteligencia de las m\u00e1quinas, la cuesti\u00f3n de la responsabilidad es monumental.<\/strong><\/p>\n<p><span style=\"font-weight: 400;\">Los ej\u00e9rcitos est\u00e1n intensificando la investigaci\u00f3n y la inversi\u00f3n en IA. <\/span><\/p>\n<p><span style=\"font-weight: 400;\">Algunos analistas definieron el encuentro Israel-Palestina de 2021, que dur\u00f3 11 d\u00edas, como el primer \"<a href=\"https:\/\/dailyai.com\/es\/2023\/07\/israel-deploys-advanced-ai-onto-the-battlefield\/\">Guerra de IA<\/a>donde las tecnolog\u00edas israel\u00edes ayudaron en la inteligencia y el despliegue en el campo de batalla. <\/span><\/p>\n<p><span style=\"font-weight: 400;\">En los \u00faltimos meses,<\/span><span style=\"font-weight: 400;\">\u00a0t<\/span><span style=\"font-weight: 400;\">l ej\u00e9rcito estadounidense estableci\u00f3 un <\/span><a href=\"https:\/\/dailyai.com\/es\/2023\/08\/us-military-establishes-generative-ai-task-force\/\"><span style=\"font-weight: 400;\">grupo de trabajo sobre IA generativa<\/span><\/a><span style=\"font-weight: 400;\"> y probado con \u00e9xito un <\/span><a href=\"https:\/\/dailyai.com\/es\/2023\/08\/the-us-air-force-confirms-successful-ai-powered-test-flight\/\"><span style=\"font-weight: 400;\">avi\u00f3n aut\u00f3nomo con inteligencia artificial<\/span><\/a><span style=\"font-weight: 400;\">.<\/span><\/p>\n<p><span style=\"font-weight: 400;\">El creciente papel de la IA en la guerra plantea una serie de complejos dilemas jur\u00eddicos y \u00e9ticos a los que a\u00fan no hemos dado respuesta, incluso a pesar de que en este mismo momento se est\u00e1 desplegando tecnolog\u00eda militar impulsada por IA. <\/span><\/p>\n<h2><span style=\"font-weight: 400;\">\u00bfQui\u00e9n es responsable cuando la IA va mal?<\/span><\/h2>\n<p><span style=\"font-weight: 400;\">El fabricante de tecnolog\u00eda militar Rafael \"<a href=\"https:\/\/www.rafael.co.il\/worlds\/land\/multi-service-network-centric-warfare\/\">Tejedor de fuego<\/a>\"localiza posiciones enemigas mediante sensores y sugiere la unidad mejor situada para disparar contra ellas.\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400;\">La descripci\u00f3n del producto dice: \"Fire Weaver calcula las Reglas de Enfrentamiento y dirige la punter\u00eda y el disparo, utilizando el tirador m\u00e1s apropiado para cada objetivo adquirido\". <\/span><\/p>\n<p><span style=\"font-weight: 400;\">\"Calcula\" es la palabra clave...\u00a0<\/span><span style=\"font-weight: 400;\">El armamento de IA puede reducir la decisi\u00f3n de destruir un objetivo a una decisi\u00f3n binaria de s\u00ed o no, pero \u00bfqu\u00e9 ocurre si Fire Weaver confunde a un ni\u00f1o con un soldado enemigo? \u00bfO un cami\u00f3n de ayuda humanitaria en lugar de un veh\u00edculo enemigo?<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Actualmente, la falta de claridad moral, \u00e9tica y jur\u00eddica es flagrante. La IA ocupa un vac\u00edo legal y \u00e9tico, que podr\u00eda prolongarse durante alg\u00fan tiempo, ya que la elaboraci\u00f3n de leyes es notoriamente lenta y rara vez se enfrenta a una tecnolog\u00eda que evoluciona tan r\u00e1pido.\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400;\">En la sociedad en general, ya hay muchos ejemplos de IA que pone en peligro a las personas y sus derechos. Estos ejemplos permiten vislumbrar el vac\u00edo legislativo y \u00e9tico que han dejado la IA y sus diversos usos.\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Por ejemplo, <\/span><a href=\"https:\/\/dailyai.com\/es\/2023\/06\/first-in-kind-libel-lawsuit-filed-against-openai\/\"><span style=\"font-weight: 400;\">ChatGPT supuesto<\/span><\/a><span style=\"font-weight: 400;\"> un hombre de Georgia, Mark Walters, fue declarado culpable de malversaci\u00f3n corporativa y acus\u00f3 al profesor de derecho Jonathan Turley de agresi\u00f3n sexual. El ChatGPT era falso en ambos casos.<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Del mismo modo, Getty Images y varios artistas, autores y otros creadores han lanzado <a href=\"https:\/\/dailyai.com\/es\/2023\/07\/more-authors-attempt-to-sue-openai-for-using-copyright-material\/\">demandas por derechos de autor<\/a> contra las empresas tecnol\u00f3gicas por utilizar datos de entrenamiento para construir sus modelos.\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Los datos de entrenamiento suelen obtenerse de terceros, como Common Crawl, y de \"bibliotecas en la sombra\" como Bibliotik, similares a sitios de torrents como PirateBay.\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400;\">En ese caso, \u00bfqui\u00e9n es responsable de la infracci\u00f3n de los derechos de autor? \u00bfLos desarrolladores de la IA o los editores de los conjuntos de datos? Es un c\u00edrculo de responsabilidad similar al de los dibujos animados en el que cada parte potencialmente culpable se\u00f1ala a los que est\u00e1n a su lado y, al final, todos escapan de la culpa.\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Este difuso panorama \u00e9tico es mucho m\u00e1s arriesgado en el contexto del armamento de IA y las t\u00e1cticas militares algor\u00edtmicas, donde los c\u00e1lculos de un modelo podr\u00edan determinar literalmente la vida o la muerte.\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Las organizaciones militares ya son conscientes del cambio de paradigma que supone el armamento de IA. Seg\u00fan el Departamento de Defensa (DoD), la primera de sus cinco \"<\/span><a href=\"https:\/\/www.ai.mil\/docs\/Ethical_Principles_for_Artificial_Intelligence.pdf\"><span style=\"font-weight: 400;\">principios \u00e9ticos de la inteligencia artificial<\/span><\/a><span style=\"font-weight: 400;\">\" para usos militares es \"Responsable\", definida como \"El personal del DoD ejercer\u00e1 los niveles apropiados de juicio y cuidado, siendo responsable del desarrollo, despliegue y uso de las capacidades de IA\".<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Esto significa que, en \u00faltima instancia, un ser humano debe ser responsable de las acciones de la m\u00e1quina. El ej\u00e9rcito siempre se ha basado en el principio de que alguien -normalmente el comandante o un soldado- debe ser considerado responsable de las acciones llevadas a cabo durante la guerra. Sin embargo, el papel de la IA en el proceso de toma de decisiones es cada vez m\u00e1s turbio.\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400;\">La primera pregunta es: a medida que la IA va asumiendo funciones m\u00e1s sofisticadas en la selecci\u00f3n de objetivos, la vigilancia y otros \u00e1mbitos, \u00bfpresionar el bot\u00f3n \"Aprobar\" equivale a culpabilidad?\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Si las predicciones de la IA fallaran, por ejemplo, provocando v\u00edctimas civiles, es dudoso que alguien aceptara que \"la m\u00e1quina\" recibiera la culpa exclusiva de un accidente.\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400;\">A su vez, puede haber situaciones en las que se culpe err\u00f3neamente a los seres humanos por su papel en un accidente al que no contribuyeron, lo que el antrop\u00f3logo M.C. Elish describe como una \"<\/span><a href=\"https:\/\/estsjournal.org\/index.php\/ests\/article\/view\/260\"><span style=\"font-weight: 400;\">zona de deformaci\u00f3n moral<\/span><\/a><span style=\"font-weight: 400;\">.\"\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400;\">La investigaci\u00f3n de Elish sobre accidentes industriales y de m\u00e1quinas sugiere que los humanos tienden a absorber la culpa en cualquier accidente, aunque la culpa sea de la m\u00e1quina, el algoritmo o el responsable que aprob\u00f3 la tecnolog\u00eda en primer lugar.\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Se basa en varios ejemplos reales, como el accidente nuclear de Three Mile Island (Pensilvania) y el accidente del vuelo 447 de Air France, que se atribuyeron en gran medida a un \"error humano\" y no a una serie m\u00e1s intrincada de fallos distribuidos entre m\u00faltiples individuos y sistemas.\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Elish dice sobre la responsabilidad en la era de la IA: \"En lo que respecta a las tecnolog\u00edas aut\u00f3nomas y rob\u00f3ticas, los reglamentos, leyes y normas est\u00e1n a\u00fan en formaci\u00f3n y pueden ser particularmente susceptibles de incertidumbres o incluso evasiones de responsabilidad.\"<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Esto tambi\u00e9n plantea cuestiones en torno al papel de los procesos democr\u00e1ticos en la guerra y la soberan\u00eda de la toma de decisiones humanas. Cuando la guerra de Vietnam se retransmiti\u00f3 en las salas de estar de todo Estados Unidos, la inmediatez de los estragos de la guerra influy\u00f3 en la opini\u00f3n p\u00fablica y en la pol\u00edtica.\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Por el contrario, el combate asistido por IA podr\u00eda eliminar los controles y equilibrios sociales del sentimiento p\u00fablico y el discurso democr\u00e1tico.<\/span><\/p>\n<p><span style=\"font-weight: 400;\">El \u00e9tico y fil\u00f3sofo Thomas Metzinger subraya que las normas \u00e9ticas no son s\u00f3lo construcciones jur\u00eddicas, sino sociales que surgen de procesos democr\u00e1ticos. <\/span><\/p>\n<p><span style=\"font-weight: 400;\">Si los algoritmos toman las decisiones, la participaci\u00f3n humana -y, por tanto, la responsabilidad moral- se vuelve difusa y redundante.\u00a0<\/span><\/p>\n<h2><span style=\"font-weight: 400;\">Repercusiones jur\u00eddicas internacionales de la IA en la guerra<\/span><\/h2>\n<p><span style=\"font-weight: 400;\">Uno de los pilares de la Convenci\u00f3n de Ginebra es el principio de \"distinci\u00f3n\", que obliga a distinguir entre combatientes y civiles.\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400;\">La tecnolog\u00eda ya ha demostrado su incapacidad para cumplir las promesas de mejorar la protecci\u00f3n de los civiles, ya que s\u00f3lo 10% de los muertos en ataques de aviones no tripulados estadounidenses a lo largo de la presidencia de Obama eran los objetivos previstos, seg\u00fan documentos filtrados de <\/span><a href=\"https:\/\/theintercept.com\/drone-papers\/\"><span style=\"font-weight: 400;\">El Intercepto<\/span><\/a><span style=\"font-weight: 400;\">.\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Los algoritmos de IA son tan buenos como los datos con los que se entrenan y las reglas que se programan para seguir. En una guerra, un algoritmo puede malinterpretar los datos debido a la niebla de guerra, a datos de entrenamiento err\u00f3neos o a t\u00e1cticas enemigas intencionadamente enga\u00f1osas.\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400;\">El Comit\u00e9 Internacional de la Cruz Roja (CICR) ha iniciado debates sobre la legalidad de los sistemas de armas aut\u00f3nomas en el marco del derecho internacional humanitario vigente, pero existen pocas definiciones concretas.\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Determinan que los marcos existentes no se adaptan a los nuevos retos que plantea la IA, y la <\/span><a href=\"https:\/\/www.icrc.org\/en\/document\/artificial-intelligence-and-machine-learning-armed-conflict-human-centred-approach%C2%A0\"><span style=\"font-weight: 400;\">Principios propuestos por el CICR<\/span><\/a><span style=\"font-weight: 400;\"> son vagos; por ejemplo, \"Los sistemas de armas aut\u00f3nomas impredecibles deben descartarse expresamente\". <\/span><\/p>\n<p><span style=\"font-weight: 400;\">\u00bfD\u00f3nde fijamos el umbral de lo \"imprevisible\" cuando un error min\u00fasculo puede ser catastr\u00f3fico?<\/span><\/p>\n<p><iframe loading=\"lazy\" title=\"\u00bfCu\u00e1les son los peligros de las armas aut\u00f3nomas? | Las leyes de la guerra | CICR\" width=\"1080\" height=\"608\" src=\"https:\/\/www.youtube.com\/embed\/8GwBTFRFlzA?feature=oembed\" frameborder=\"0\" allow=\"accelerometer; autoplay; clipboard-write; encrypted-media; gyroscope; picture-in-picture; web-share\" referrerpolicy=\"strict-origin-when-cross-origin\" allowfullscreen><\/iframe><\/p>\n<p><span style=\"font-weight: 400;\">Adem\u00e1s, el campo de batalla cambia constantemente y presentar\u00e1 \"casos l\u00edmite\", es decir, puntos ciegos que no se tienen en cuenta en el entrenamiento de la IA. Construir sistemas de IA que respondan a condiciones ambientales din\u00e1micas con los mismos tiempos de reacci\u00f3n que los humanos es excepcionalmente dif\u00edcil.\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Mientras que el armamento de IA puede mantener la precisi\u00f3n en escenarios t\u00edpicos del campo de batalla, \u00bfqu\u00e9 ocurre cuando el entorno se aleja de lo que el modelo cree que es la \"verdad sobre el terreno\", o los casos extremos desv\u00edan su precisi\u00f3n?<\/span><\/p>\n<h2><span style=\"font-weight: 400;\">Erosi\u00f3n de la sensibilidad moral<\/span><\/h2>\n<p><span style=\"font-weight: 400;\">El acto de matar en la guerra ha cambiado enormemente con la llegada de las estrategias y t\u00e1cticas militares modernas.\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Durante la Primera Guerra Mundial, an\u00e1lisis hist\u00f3ricos y relatos como el pol\u00e9mico libro de S.L.A. Marshall \"<\/span><a href=\"https:\/\/history.army.mil\/html\/books\/070\/70-64\/cmhPub_70-64.pdf\"><span style=\"font-weight: 400;\">Hombres contra el fuego<\/span><\/a><span style=\"font-weight: 400;\">\" sugieren que s\u00f3lo entre el 15 y el 25% de los soldados de primera l\u00ednea dispararon sus armas con intenci\u00f3n de matar.\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Hoy en d\u00eda, un soldado que maneja un dron a miles de kil\u00f3metros de distancia no experimenta el impacto emocional y psicol\u00f3gico inmediato de sus acciones, lo que se ha visto indicado por una incidencia generalmente menor de TEPT y otros problemas de salud mental en comparaci\u00f3n con los que sirven sobre el terreno.<\/span><\/p>\n<p><span style=\"font-weight: 400;\"> El propio dise\u00f1o de la tecnolog\u00eda militar se ha adaptado a los nuevos paradigmas de la \"guerra a distancia\". Los mandos de los drones se parecen mucho a los de los videojuegos, una elecci\u00f3n de dise\u00f1o que puede no ser casual.<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Los operadores de IA pueden tomar decisiones de vida o muerte en un entorno que abstrae las realidades de la guerra en puntos de datos e im\u00e1genes en una pantalla, cortando<\/span><span style=\"font-weight: 400;\"> las \u00faltimas conexiones morales que tenemos con las vidas de quienes se ven envueltos en un conflicto.\u00a0<\/span><\/p>\n<h2><span style=\"font-weight: 400;\">\u00bfAd\u00f3nde vamos ahora?<\/span><\/h2>\n<p><span style=\"font-weight: 400;\">A medida que la IA militar evoluciona hacia algo que muchos temen seriamente, la responsabilidad de los errores y fracasos recae en una sola persona, <\/span><span style=\"font-weight: 400;\">desarrolladores, organizaciones o grupos enteros parece poco probable.\u00a0<\/span><\/p>\n<p>\u00bfQui\u00e9n, o qu\u00e9, asume la responsabilidad? H<span style=\"font-weight: 400;\">\u00bfC\u00f3mo podemos evitar adentrarnos en un futuro en el que matar sea m\u00e1s una m\u00e1quina que un ser humano y en el que la responsabilidad \u00e9tica se disipe en abstracciones algor\u00edtmicas?\u00a0<\/span><\/p>\n<p>Con el tiempo, es probable que los sistemas artificiales cada vez m\u00e1s inteligentes transformen el tejido de la \u00e9tica y la responsabilidad, sobre todo si muestran signos de sensibilidad o conciencia.<\/p>\n<p>Pero eso no explica c\u00f3mo se gestiona esta situaci\u00f3n en el presente y, como tantas cosas en el mundo de la IA, hay m\u00e1s preguntas que respuestas.<\/p>","protected":false},"excerpt":{"rendered":"<p>En un mundo en el que los \"juegos de guerra\" ya no se refieren \u00fanicamente a juegos de mesa o videojuegos, sino a escenarios de vida o muerte facilitados por la inteligencia artificial, la cuesti\u00f3n de la responsabilidad es monumental. Los ej\u00e9rcitos est\u00e1n intensificando la investigaci\u00f3n y la inversi\u00f3n en IA. Algunos analistas definieron el encuentro Israel-Palestina de 2021, de 11 d\u00edas de duraci\u00f3n, como la primera \"guerra de IA\", en la que las tecnolog\u00edas israel\u00edes ayudaron en la inteligencia y el despliegue en el campo de batalla. En los \u00faltimos meses, el ej\u00e9rcito estadounidense ha creado un grupo operativo de IA generativa y ha probado con \u00e9xito un avi\u00f3n aut\u00f3nomo impulsado por IA. El creciente papel de la IA en la guerra plantea una serie de complejos dilemas legales y \u00e9ticos a los que a\u00fan no hemos dado respuesta, incluso a pesar de que la inteligencia artificial es una de las principales armas de destrucci\u00f3n masiva.<\/p>","protected":false},"author":2,"featured_media":4726,"comment_status":"closed","ping_status":"open","sticky":false,"template":"","format":"standard","meta":{"footnotes":""},"categories":[87],"tags":[163,302,346,294,277,348,347,345],"class_list":["post-4724","post","type-post","status-publish","format-standard","has-post-thumbnail","hentry","category-opinions","tag-ai-risks","tag-ai-weapons","tag-battlefield","tag-darpa","tag-drones","tag-ethics","tag-palantir","tag-war"],"yoast_head":"<!-- This site is optimized with the Yoast SEO plugin v27.4 - https:\/\/yoast.com\/product\/yoast-seo-wordpress\/ -->\n<title>AI on the battlefield: who is responsible if it goes wrong? | DailyAI<\/title>\n<meta name=\"description\" content=\"In a world where &quot;war games&quot; no longer refer solely to board games or video games but to life-and-death scenarios facilitated by machine intelligence, the question of ethical responsibility is monumental.\" \/>\n<meta name=\"robots\" content=\"index, follow, max-snippet:-1, max-image-preview:large, max-video-preview:-1\" \/>\n<link rel=\"canonical\" href=\"https:\/\/dailyai.com\/es\/2023\/08\/ai-on-the-battlefield-who-is-responsible-if-it-goes-wrong\/\" \/>\n<meta property=\"og:locale\" content=\"es_ES\" \/>\n<meta property=\"og:type\" content=\"article\" \/>\n<meta property=\"og:title\" content=\"AI on the battlefield: who is responsible if it goes wrong? | DailyAI\" \/>\n<meta property=\"og:description\" content=\"In a world where &quot;war games&quot; no longer refer solely to board games or video games but to life-and-death scenarios facilitated by machine intelligence, the question of ethical responsibility is monumental.\" \/>\n<meta property=\"og:url\" content=\"https:\/\/dailyai.com\/es\/2023\/08\/ai-on-the-battlefield-who-is-responsible-if-it-goes-wrong\/\" \/>\n<meta property=\"og:site_name\" content=\"DailyAI\" \/>\n<meta property=\"article:published_time\" content=\"2023-08-27T20:07:21+00:00\" \/>\n<meta property=\"article:modified_time\" content=\"2023-08-30T21:09:12+00:00\" \/>\n<meta property=\"og:image\" content=\"https:\/\/dailyai.com\/wp-content\/uploads\/2023\/08\/shutterstock_2143842119.jpg\" \/>\n\t<meta property=\"og:image:width\" content=\"1000\" \/>\n\t<meta property=\"og:image:height\" content=\"667\" \/>\n\t<meta property=\"og:image:type\" content=\"image\/jpeg\" \/>\n<meta name=\"author\" content=\"Sam Jeans\" \/>\n<meta name=\"twitter:card\" content=\"summary_large_image\" \/>\n<meta name=\"twitter:creator\" content=\"@DailyAIOfficial\" \/>\n<meta name=\"twitter:site\" content=\"@DailyAIOfficial\" \/>\n<meta name=\"twitter:label1\" content=\"Escrito por\" \/>\n\t<meta name=\"twitter:data1\" content=\"Sam Jeans\" \/>\n\t<meta name=\"twitter:label2\" content=\"Tiempo de lectura\" \/>\n\t<meta name=\"twitter:data2\" content=\"7 minutos\" \/>\n<script type=\"application\/ld+json\" class=\"yoast-schema-graph\">{\"@context\":\"https:\\\/\\\/schema.org\",\"@graph\":[{\"@type\":\"NewsArticle\",\"@id\":\"https:\\\/\\\/dailyai.com\\\/2023\\\/08\\\/ai-on-the-battlefield-who-is-responsible-if-it-goes-wrong\\\/#article\",\"isPartOf\":{\"@id\":\"https:\\\/\\\/dailyai.com\\\/2023\\\/08\\\/ai-on-the-battlefield-who-is-responsible-if-it-goes-wrong\\\/\"},\"author\":{\"name\":\"Sam Jeans\",\"@id\":\"https:\\\/\\\/dailyai.com\\\/#\\\/schema\\\/person\\\/711e81f945549438e8bbc579efdeb3c9\"},\"headline\":\"AI on the battlefield: who is responsible if it goes wrong?\",\"datePublished\":\"2023-08-27T20:07:21+00:00\",\"dateModified\":\"2023-08-30T21:09:12+00:00\",\"mainEntityOfPage\":{\"@id\":\"https:\\\/\\\/dailyai.com\\\/2023\\\/08\\\/ai-on-the-battlefield-who-is-responsible-if-it-goes-wrong\\\/\"},\"wordCount\":1414,\"publisher\":{\"@id\":\"https:\\\/\\\/dailyai.com\\\/#organization\"},\"image\":{\"@id\":\"https:\\\/\\\/dailyai.com\\\/2023\\\/08\\\/ai-on-the-battlefield-who-is-responsible-if-it-goes-wrong\\\/#primaryimage\"},\"thumbnailUrl\":\"https:\\\/\\\/dailyai.com\\\/wp-content\\\/uploads\\\/2023\\\/08\\\/shutterstock_2143842119.jpg\",\"keywords\":[\"AI risks\",\"AI weapons\",\"Battlefield\",\"DARPA\",\"Drones\",\"Ethics\",\"Palantir\",\"War\"],\"articleSection\":[\"Opinions &amp; Analysis\"],\"inLanguage\":\"es\"},{\"@type\":\"WebPage\",\"@id\":\"https:\\\/\\\/dailyai.com\\\/2023\\\/08\\\/ai-on-the-battlefield-who-is-responsible-if-it-goes-wrong\\\/\",\"url\":\"https:\\\/\\\/dailyai.com\\\/2023\\\/08\\\/ai-on-the-battlefield-who-is-responsible-if-it-goes-wrong\\\/\",\"name\":\"AI on the battlefield: who is responsible if it goes wrong? | DailyAI\",\"isPartOf\":{\"@id\":\"https:\\\/\\\/dailyai.com\\\/#website\"},\"primaryImageOfPage\":{\"@id\":\"https:\\\/\\\/dailyai.com\\\/2023\\\/08\\\/ai-on-the-battlefield-who-is-responsible-if-it-goes-wrong\\\/#primaryimage\"},\"image\":{\"@id\":\"https:\\\/\\\/dailyai.com\\\/2023\\\/08\\\/ai-on-the-battlefield-who-is-responsible-if-it-goes-wrong\\\/#primaryimage\"},\"thumbnailUrl\":\"https:\\\/\\\/dailyai.com\\\/wp-content\\\/uploads\\\/2023\\\/08\\\/shutterstock_2143842119.jpg\",\"datePublished\":\"2023-08-27T20:07:21+00:00\",\"dateModified\":\"2023-08-30T21:09:12+00:00\",\"description\":\"In a world where \\\"war games\\\" no longer refer solely to board games or video games but to life-and-death scenarios facilitated by machine intelligence, the question of ethical responsibility is monumental.\",\"breadcrumb\":{\"@id\":\"https:\\\/\\\/dailyai.com\\\/2023\\\/08\\\/ai-on-the-battlefield-who-is-responsible-if-it-goes-wrong\\\/#breadcrumb\"},\"inLanguage\":\"es\",\"potentialAction\":[{\"@type\":\"ReadAction\",\"target\":[\"https:\\\/\\\/dailyai.com\\\/2023\\\/08\\\/ai-on-the-battlefield-who-is-responsible-if-it-goes-wrong\\\/\"]}]},{\"@type\":\"ImageObject\",\"inLanguage\":\"es\",\"@id\":\"https:\\\/\\\/dailyai.com\\\/2023\\\/08\\\/ai-on-the-battlefield-who-is-responsible-if-it-goes-wrong\\\/#primaryimage\",\"url\":\"https:\\\/\\\/dailyai.com\\\/wp-content\\\/uploads\\\/2023\\\/08\\\/shutterstock_2143842119.jpg\",\"contentUrl\":\"https:\\\/\\\/dailyai.com\\\/wp-content\\\/uploads\\\/2023\\\/08\\\/shutterstock_2143842119.jpg\",\"width\":1000,\"height\":667,\"caption\":\"War crimes\"},{\"@type\":\"BreadcrumbList\",\"@id\":\"https:\\\/\\\/dailyai.com\\\/2023\\\/08\\\/ai-on-the-battlefield-who-is-responsible-if-it-goes-wrong\\\/#breadcrumb\",\"itemListElement\":[{\"@type\":\"ListItem\",\"position\":1,\"name\":\"Home\",\"item\":\"https:\\\/\\\/dailyai.com\\\/\"},{\"@type\":\"ListItem\",\"position\":2,\"name\":\"AI on the battlefield: who is responsible if it goes wrong?\"}]},{\"@type\":\"WebSite\",\"@id\":\"https:\\\/\\\/dailyai.com\\\/#website\",\"url\":\"https:\\\/\\\/dailyai.com\\\/\",\"name\":\"DailyAI\",\"description\":\"Your Daily Dose of AI News\",\"publisher\":{\"@id\":\"https:\\\/\\\/dailyai.com\\\/#organization\"},\"potentialAction\":[{\"@type\":\"SearchAction\",\"target\":{\"@type\":\"EntryPoint\",\"urlTemplate\":\"https:\\\/\\\/dailyai.com\\\/?s={search_term_string}\"},\"query-input\":{\"@type\":\"PropertyValueSpecification\",\"valueRequired\":true,\"valueName\":\"search_term_string\"}}],\"inLanguage\":\"es\"},{\"@type\":\"Organization\",\"@id\":\"https:\\\/\\\/dailyai.com\\\/#organization\",\"name\":\"DailyAI\",\"url\":\"https:\\\/\\\/dailyai.com\\\/\",\"logo\":{\"@type\":\"ImageObject\",\"inLanguage\":\"es\",\"@id\":\"https:\\\/\\\/dailyai.com\\\/#\\\/schema\\\/logo\\\/image\\\/\",\"url\":\"https:\\\/\\\/dailyai.com\\\/wp-content\\\/uploads\\\/2023\\\/06\\\/Daily-Ai_TL_colour.png\",\"contentUrl\":\"https:\\\/\\\/dailyai.com\\\/wp-content\\\/uploads\\\/2023\\\/06\\\/Daily-Ai_TL_colour.png\",\"width\":4501,\"height\":934,\"caption\":\"DailyAI\"},\"image\":{\"@id\":\"https:\\\/\\\/dailyai.com\\\/#\\\/schema\\\/logo\\\/image\\\/\"},\"sameAs\":[\"https:\\\/\\\/x.com\\\/DailyAIOfficial\",\"https:\\\/\\\/www.linkedin.com\\\/company\\\/dailyaiofficial\\\/\",\"https:\\\/\\\/www.youtube.com\\\/@DailyAIOfficial\"]},{\"@type\":\"Person\",\"@id\":\"https:\\\/\\\/dailyai.com\\\/#\\\/schema\\\/person\\\/711e81f945549438e8bbc579efdeb3c9\",\"name\":\"Sam Jeans\",\"image\":{\"@type\":\"ImageObject\",\"inLanguage\":\"es\",\"@id\":\"https:\\\/\\\/secure.gravatar.com\\\/avatar\\\/a24a4a8f8e2a1a275b7491dc9c9f032c401eabf23c3206da4628dc84b6dac5c8?s=96&d=robohash&r=g\",\"url\":\"https:\\\/\\\/secure.gravatar.com\\\/avatar\\\/a24a4a8f8e2a1a275b7491dc9c9f032c401eabf23c3206da4628dc84b6dac5c8?s=96&d=robohash&r=g\",\"contentUrl\":\"https:\\\/\\\/secure.gravatar.com\\\/avatar\\\/a24a4a8f8e2a1a275b7491dc9c9f032c401eabf23c3206da4628dc84b6dac5c8?s=96&d=robohash&r=g\",\"caption\":\"Sam Jeans\"},\"description\":\"Sam is a science and technology writer who has worked in various AI startups. When he\u2019s not writing, he can be found reading medical journals or digging through boxes of vinyl records.\",\"sameAs\":[\"https:\\\/\\\/www.linkedin.com\\\/in\\\/sam-jeans-6746b9142\\\/\"],\"url\":\"https:\\\/\\\/dailyai.com\\\/es\\\/author\\\/samjeans\\\/\"}]}<\/script>\n<!-- \/ Yoast SEO plugin. -->","yoast_head_json":{"title":"IA en el campo de batalla: \u00bfqui\u00e9n es responsable si sale mal? | DailyAI","description":"En un mundo en el que los \"juegos de guerra\" ya no se refieren \u00fanicamente a juegos de mesa o videojuegos, sino a escenarios de vida o muerte facilitados por la inteligencia de las m\u00e1quinas, la cuesti\u00f3n de la responsabilidad \u00e9tica es monumental.","robots":{"index":"index","follow":"follow","max-snippet":"max-snippet:-1","max-image-preview":"max-image-preview:large","max-video-preview":"max-video-preview:-1"},"canonical":"https:\/\/dailyai.com\/es\/2023\/08\/ai-on-the-battlefield-who-is-responsible-if-it-goes-wrong\/","og_locale":"es_ES","og_type":"article","og_title":"AI on the battlefield: who is responsible if it goes wrong? | DailyAI","og_description":"In a world where \"war games\" no longer refer solely to board games or video games but to life-and-death scenarios facilitated by machine intelligence, the question of ethical responsibility is monumental.","og_url":"https:\/\/dailyai.com\/es\/2023\/08\/ai-on-the-battlefield-who-is-responsible-if-it-goes-wrong\/","og_site_name":"DailyAI","article_published_time":"2023-08-27T20:07:21+00:00","article_modified_time":"2023-08-30T21:09:12+00:00","og_image":[{"width":1000,"height":667,"url":"https:\/\/dailyai.com\/wp-content\/uploads\/2023\/08\/shutterstock_2143842119.jpg","type":"image\/jpeg"}],"author":"Sam Jeans","twitter_card":"summary_large_image","twitter_creator":"@DailyAIOfficial","twitter_site":"@DailyAIOfficial","twitter_misc":{"Escrito por":"Sam Jeans","Tiempo de lectura":"7 minutos"},"schema":{"@context":"https:\/\/schema.org","@graph":[{"@type":"NewsArticle","@id":"https:\/\/dailyai.com\/2023\/08\/ai-on-the-battlefield-who-is-responsible-if-it-goes-wrong\/#article","isPartOf":{"@id":"https:\/\/dailyai.com\/2023\/08\/ai-on-the-battlefield-who-is-responsible-if-it-goes-wrong\/"},"author":{"name":"Sam Jeans","@id":"https:\/\/dailyai.com\/#\/schema\/person\/711e81f945549438e8bbc579efdeb3c9"},"headline":"AI on the battlefield: who is responsible if it goes wrong?","datePublished":"2023-08-27T20:07:21+00:00","dateModified":"2023-08-30T21:09:12+00:00","mainEntityOfPage":{"@id":"https:\/\/dailyai.com\/2023\/08\/ai-on-the-battlefield-who-is-responsible-if-it-goes-wrong\/"},"wordCount":1414,"publisher":{"@id":"https:\/\/dailyai.com\/#organization"},"image":{"@id":"https:\/\/dailyai.com\/2023\/08\/ai-on-the-battlefield-who-is-responsible-if-it-goes-wrong\/#primaryimage"},"thumbnailUrl":"https:\/\/dailyai.com\/wp-content\/uploads\/2023\/08\/shutterstock_2143842119.jpg","keywords":["AI risks","AI weapons","Battlefield","DARPA","Drones","Ethics","Palantir","War"],"articleSection":["Opinions &amp; Analysis"],"inLanguage":"es"},{"@type":"WebPage","@id":"https:\/\/dailyai.com\/2023\/08\/ai-on-the-battlefield-who-is-responsible-if-it-goes-wrong\/","url":"https:\/\/dailyai.com\/2023\/08\/ai-on-the-battlefield-who-is-responsible-if-it-goes-wrong\/","name":"IA en el campo de batalla: \u00bfqui\u00e9n es responsable si sale mal? | DailyAI","isPartOf":{"@id":"https:\/\/dailyai.com\/#website"},"primaryImageOfPage":{"@id":"https:\/\/dailyai.com\/2023\/08\/ai-on-the-battlefield-who-is-responsible-if-it-goes-wrong\/#primaryimage"},"image":{"@id":"https:\/\/dailyai.com\/2023\/08\/ai-on-the-battlefield-who-is-responsible-if-it-goes-wrong\/#primaryimage"},"thumbnailUrl":"https:\/\/dailyai.com\/wp-content\/uploads\/2023\/08\/shutterstock_2143842119.jpg","datePublished":"2023-08-27T20:07:21+00:00","dateModified":"2023-08-30T21:09:12+00:00","description":"En un mundo en el que los \"juegos de guerra\" ya no se refieren \u00fanicamente a juegos de mesa o videojuegos, sino a escenarios de vida o muerte facilitados por la inteligencia de las m\u00e1quinas, la cuesti\u00f3n de la responsabilidad \u00e9tica es monumental.","breadcrumb":{"@id":"https:\/\/dailyai.com\/2023\/08\/ai-on-the-battlefield-who-is-responsible-if-it-goes-wrong\/#breadcrumb"},"inLanguage":"es","potentialAction":[{"@type":"ReadAction","target":["https:\/\/dailyai.com\/2023\/08\/ai-on-the-battlefield-who-is-responsible-if-it-goes-wrong\/"]}]},{"@type":"ImageObject","inLanguage":"es","@id":"https:\/\/dailyai.com\/2023\/08\/ai-on-the-battlefield-who-is-responsible-if-it-goes-wrong\/#primaryimage","url":"https:\/\/dailyai.com\/wp-content\/uploads\/2023\/08\/shutterstock_2143842119.jpg","contentUrl":"https:\/\/dailyai.com\/wp-content\/uploads\/2023\/08\/shutterstock_2143842119.jpg","width":1000,"height":667,"caption":"War crimes"},{"@type":"BreadcrumbList","@id":"https:\/\/dailyai.com\/2023\/08\/ai-on-the-battlefield-who-is-responsible-if-it-goes-wrong\/#breadcrumb","itemListElement":[{"@type":"ListItem","position":1,"name":"Home","item":"https:\/\/dailyai.com\/"},{"@type":"ListItem","position":2,"name":"AI on the battlefield: who is responsible if it goes wrong?"}]},{"@type":"WebSite","@id":"https:\/\/dailyai.com\/#website","url":"https:\/\/dailyai.com\/","name":"DailyAI","description":"Su dosis diaria de noticias sobre IA","publisher":{"@id":"https:\/\/dailyai.com\/#organization"},"potentialAction":[{"@type":"SearchAction","target":{"@type":"EntryPoint","urlTemplate":"https:\/\/dailyai.com\/?s={search_term_string}"},"query-input":{"@type":"PropertyValueSpecification","valueRequired":true,"valueName":"search_term_string"}}],"inLanguage":"es"},{"@type":"Organization","@id":"https:\/\/dailyai.com\/#organization","name":"DailyAI","url":"https:\/\/dailyai.com\/","logo":{"@type":"ImageObject","inLanguage":"es","@id":"https:\/\/dailyai.com\/#\/schema\/logo\/image\/","url":"https:\/\/dailyai.com\/wp-content\/uploads\/2023\/06\/Daily-Ai_TL_colour.png","contentUrl":"https:\/\/dailyai.com\/wp-content\/uploads\/2023\/06\/Daily-Ai_TL_colour.png","width":4501,"height":934,"caption":"DailyAI"},"image":{"@id":"https:\/\/dailyai.com\/#\/schema\/logo\/image\/"},"sameAs":["https:\/\/x.com\/DailyAIOfficial","https:\/\/www.linkedin.com\/company\/dailyaiofficial\/","https:\/\/www.youtube.com\/@DailyAIOfficial"]},{"@type":"Person","@id":"https:\/\/dailyai.com\/#\/schema\/person\/711e81f945549438e8bbc579efdeb3c9","name":"Sam Jeans","image":{"@type":"ImageObject","inLanguage":"es","@id":"https:\/\/secure.gravatar.com\/avatar\/a24a4a8f8e2a1a275b7491dc9c9f032c401eabf23c3206da4628dc84b6dac5c8?s=96&d=robohash&r=g","url":"https:\/\/secure.gravatar.com\/avatar\/a24a4a8f8e2a1a275b7491dc9c9f032c401eabf23c3206da4628dc84b6dac5c8?s=96&d=robohash&r=g","contentUrl":"https:\/\/secure.gravatar.com\/avatar\/a24a4a8f8e2a1a275b7491dc9c9f032c401eabf23c3206da4628dc84b6dac5c8?s=96&d=robohash&r=g","caption":"Sam Jeans"},"description":"Sam es un escritor de ciencia y tecnolog\u00eda que ha trabajado en varias startups de IA. Cuando no est\u00e1 escribiendo, se le puede encontrar leyendo revistas m\u00e9dicas o rebuscando en cajas de discos de vinilo.","sameAs":["https:\/\/www.linkedin.com\/in\/sam-jeans-6746b9142\/"],"url":"https:\/\/dailyai.com\/es\/author\/samjeans\/"}]}},"_links":{"self":[{"href":"https:\/\/dailyai.com\/es\/wp-json\/wp\/v2\/posts\/4724","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/dailyai.com\/es\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/dailyai.com\/es\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/dailyai.com\/es\/wp-json\/wp\/v2\/users\/2"}],"replies":[{"embeddable":true,"href":"https:\/\/dailyai.com\/es\/wp-json\/wp\/v2\/comments?post=4724"}],"version-history":[{"count":21,"href":"https:\/\/dailyai.com\/es\/wp-json\/wp\/v2\/posts\/4724\/revisions"}],"predecessor-version":[{"id":4773,"href":"https:\/\/dailyai.com\/es\/wp-json\/wp\/v2\/posts\/4724\/revisions\/4773"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/dailyai.com\/es\/wp-json\/wp\/v2\/media\/4726"}],"wp:attachment":[{"href":"https:\/\/dailyai.com\/es\/wp-json\/wp\/v2\/media?parent=4724"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/dailyai.com\/es\/wp-json\/wp\/v2\/categories?post=4724"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/dailyai.com\/es\/wp-json\/wp\/v2\/tags?post=4724"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}