IA en el campo de batalla: ¿quién es responsable si sale mal?

27 de agosto de 2023

Crímenes de guerra

En un mundo en el que los "juegos de guerra" ya no se refieren únicamente a juegos de mesa o videojuegos, sino a escenarios de vida o muerte facilitados por la inteligencia de las máquinas, la cuestión de la responsabilidad es monumental.

Los ejércitos están intensificando la investigación y la inversión en IA.

Algunos analistas definieron el encuentro Israel-Palestina de 2021, que duró 11 días, como el primer "Guerra de IAdonde las tecnologías israelíes ayudaron en la inteligencia y el despliegue en el campo de batalla.

En los últimos meses, tl ejército estadounidense estableció un grupo de trabajo sobre IA generativa y probado con éxito un avión autónomo con inteligencia artificial.

El creciente papel de la IA en la guerra plantea una serie de complejos dilemas jurídicos y éticos a los que aún no hemos dado respuesta, incluso a pesar de que en este mismo momento se está desplegando tecnología militar impulsada por IA.

¿Quién es responsable cuando la IA va mal?

El fabricante de tecnología militar Rafael "Tejedor de fuego"localiza posiciones enemigas mediante sensores y sugiere la unidad mejor situada para disparar contra ellas. 

La descripción del producto dice: "Fire Weaver calcula las Reglas de Enfrentamiento y dirige la puntería y el disparo, utilizando el tirador más apropiado para cada objetivo adquirido".

"Calcula" es la palabra clave... El armamento de IA puede reducir la decisión de destruir un objetivo a una decisión binaria de sí o no, pero ¿qué ocurre si Fire Weaver confunde a un niño con un soldado enemigo? ¿O un camión de ayuda humanitaria en lugar de un vehículo enemigo?

Actualmente, la falta de claridad moral, ética y jurídica es flagrante. La IA ocupa un vacío legal y ético, que podría prolongarse durante algún tiempo, ya que la elaboración de leyes es notoriamente lenta y rara vez se enfrenta a una tecnología que evoluciona tan rápido. 

En la sociedad en general, ya hay muchos ejemplos de IA que pone en peligro a las personas y sus derechos. Estos ejemplos permiten vislumbrar el vacío legislativo y ético que han dejado la IA y sus diversos usos. 

Por ejemplo, ChatGPT supuesto un hombre de Georgia, Mark Walters, fue declarado culpable de malversación corporativa y acusó al profesor de derecho Jonathan Turley de agresión sexual. El ChatGPT era falso en ambos casos.

Del mismo modo, Getty Images y varios artistas, autores y otros creadores han lanzado demandas por derechos de autor contra las empresas tecnológicas por utilizar datos de entrenamiento para construir sus modelos. 

Los datos de entrenamiento suelen obtenerse de terceros, como Common Crawl, y de "bibliotecas en la sombra" como Bibliotik, similares a sitios de torrents como PirateBay. 

En ese caso, ¿quién es responsable de la infracción de los derechos de autor? ¿Los desarrolladores de la IA o los editores de los conjuntos de datos? Es un círculo de responsabilidad similar al de los dibujos animados en el que cada parte potencialmente culpable señala a los que están a su lado y, al final, todos escapan de la culpa. 

Este difuso panorama ético es mucho más arriesgado en el contexto del armamento de IA y las tácticas militares algorítmicas, donde los cálculos de un modelo podrían determinar literalmente la vida o la muerte. 

Las organizaciones militares ya son conscientes del cambio de paradigma que supone el armamento de IA. Según el Departamento de Defensa (DoD), la primera de sus cinco "principios éticos de la inteligencia artificial" para usos militares es "Responsable", definida como "El personal del DoD ejercerá los niveles apropiados de juicio y cuidado, siendo responsable del desarrollo, despliegue y uso de las capacidades de IA".

Esto significa que, en última instancia, un ser humano debe ser responsable de las acciones de la máquina. El ejército siempre se ha basado en el principio de que alguien -normalmente el comandante o un soldado- debe ser considerado responsable de las acciones llevadas a cabo durante la guerra. Sin embargo, el papel de la IA en el proceso de toma de decisiones es cada vez más turbio. 

La primera pregunta es: a medida que la IA va asumiendo funciones más sofisticadas en la selección de objetivos, la vigilancia y otros ámbitos, ¿presionar el botón "Aprobar" equivale a culpabilidad? 

Si las predicciones de la IA fallaran, por ejemplo, provocando víctimas civiles, es dudoso que alguien aceptara que "la máquina" recibiera la culpa exclusiva de un accidente. 

A su vez, puede haber situaciones en las que se culpe erróneamente a los seres humanos por su papel en un accidente al que no contribuyeron, lo que el antropólogo M.C. Elish describe como una "zona de deformación moral." 

La investigación de Elish sobre accidentes industriales y de máquinas sugiere que los humanos tienden a absorber la culpa en cualquier accidente, aunque la culpa sea de la máquina, el algoritmo o el responsable que aprobó la tecnología en primer lugar. 

Se basa en varios ejemplos reales, como el accidente nuclear de Three Mile Island (Pensilvania) y el accidente del vuelo 447 de Air France, que se atribuyeron en gran medida a un "error humano" y no a una serie más intrincada de fallos distribuidos entre múltiples individuos y sistemas. 

Elish dice sobre la responsabilidad en la era de la IA: "En lo que respecta a las tecnologías autónomas y robóticas, los reglamentos, leyes y normas están aún en formación y pueden ser particularmente susceptibles de incertidumbres o incluso evasiones de responsabilidad."

Esto también plantea cuestiones en torno al papel de los procesos democráticos en la guerra y la soberanía de la toma de decisiones humanas. Cuando la guerra de Vietnam se retransmitió en las salas de estar de todo Estados Unidos, la inmediatez de los estragos de la guerra influyó en la opinión pública y en la política. 

Por el contrario, el combate asistido por IA podría eliminar los controles y equilibrios sociales del sentimiento público y el discurso democrático.

El ético y filósofo Thomas Metzinger subraya que las normas éticas no son sólo construcciones jurídicas, sino sociales que surgen de procesos democráticos.

Si los algoritmos toman las decisiones, la participación humana -y, por tanto, la responsabilidad moral- se vuelve difusa y redundante. 

Repercusiones jurídicas internacionales de la IA en la guerra

Uno de los pilares de la Convención de Ginebra es el principio de "distinción", que obliga a distinguir entre combatientes y civiles. 

La tecnología ya ha demostrado su incapacidad para cumplir las promesas de mejorar la protección de los civiles, ya que sólo 10% de los muertos en ataques de aviones no tripulados estadounidenses a lo largo de la presidencia de Obama eran los objetivos previstos, según documentos filtrados de El Intercepto

Los algoritmos de IA son tan buenos como los datos con los que se entrenan y las reglas que se programan para seguir. En una guerra, un algoritmo puede malinterpretar los datos debido a la niebla de guerra, a datos de entrenamiento erróneos o a tácticas enemigas intencionadamente engañosas. 

El Comité Internacional de la Cruz Roja (CICR) ha iniciado debates sobre la legalidad de los sistemas de armas autónomas en el marco del derecho internacional humanitario vigente, pero existen pocas definiciones concretas. 

Determinan que los marcos existentes no se adaptan a los nuevos retos que plantea la IA, y la Principios propuestos por el CICR son vagos; por ejemplo, "Los sistemas de armas autónomas impredecibles deben descartarse expresamente".

¿Dónde fijamos el umbral de lo "imprevisible" cuando un error minúsculo puede ser catastrófico?

Además, el campo de batalla cambia constantemente y presentará "casos límite", es decir, puntos ciegos que no se tienen en cuenta en el entrenamiento de la IA. Construir sistemas de IA que respondan a condiciones ambientales dinámicas con los mismos tiempos de reacción que los humanos es excepcionalmente difícil. 

Mientras que el armamento de IA puede mantener la precisión en escenarios típicos del campo de batalla, ¿qué ocurre cuando el entorno se aleja de lo que el modelo cree que es la "verdad sobre el terreno", o los casos extremos desvían su precisión?

Erosión de la sensibilidad moral

El acto de matar en la guerra ha cambiado enormemente con la llegada de las estrategias y tácticas militares modernas. 

Durante la Primera Guerra Mundial, análisis históricos y relatos como el polémico libro de S.L.A. Marshall "Hombres contra el fuego" sugieren que sólo entre el 15 y el 25% de los soldados de primera línea dispararon sus armas con intención de matar. 

Hoy en día, un soldado que maneja un dron a miles de kilómetros de distancia no experimenta el impacto emocional y psicológico inmediato de sus acciones, lo que se ha visto indicado por una incidencia generalmente menor de TEPT y otros problemas de salud mental en comparación con los que sirven sobre el terreno.

El propio diseño de la tecnología militar se ha adaptado a los nuevos paradigmas de la "guerra a distancia". Los mandos de los drones se parecen mucho a los de los videojuegos, una elección de diseño que puede no ser casual.

Los operadores de IA pueden tomar decisiones de vida o muerte en un entorno que abstrae las realidades de la guerra en puntos de datos e imágenes en una pantalla, cortando las últimas conexiones morales que tenemos con las vidas de quienes se ven envueltos en un conflicto. 

¿Adónde vamos ahora?

A medida que la IA militar evoluciona hacia algo que muchos temen seriamente, la responsabilidad de los errores y fracasos recae en una sola persona, desarrolladores, organizaciones o grupos enteros parece poco probable. 

¿Quién, o qué, asume la responsabilidad? H¿Cómo podemos evitar adentrarnos en un futuro en el que matar sea más una máquina que un ser humano y en el que la responsabilidad ética se disipe en abstracciones algorítmicas? 

Con el tiempo, es probable que los sistemas artificiales cada vez más inteligentes transformen el tejido de la ética y la responsabilidad, sobre todo si muestran signos de sensibilidad o conciencia.

Pero eso no explica cómo se gestiona esta situación en el presente y, como tantas cosas en el mundo de la IA, hay más preguntas que respuestas.

Únete al futuro


SUSCRÍBETE HOY

Claro, conciso y completo. Conozca los avances de la IA con DailyAI

Sam Jeans

Sam es un escritor de ciencia y tecnología que ha trabajado en varias startups de IA. Cuando no está escribiendo, se le puede encontrar leyendo revistas médicas o rebuscando en cajas de discos de vinilo.

×

PDF GRATUITO EXCLUSIVO
Adelántese con DailyAI

Suscríbase a nuestro boletín semanal y reciba acceso exclusivo al último eBook de DailyAI: 'Mastering AI Tools: Su guía 2024 para mejorar la productividad'.

*Al suscribirse a nuestro boletín de noticias, acepta nuestra política de privacidad. Política de privacidad y nuestro Condiciones generales