Mientras los conflictos asolan Ucrania y Oriente Próximo, el campo de batalla moderno se ha convertido en un campo de pruebas para la guerra potenciada por la IA.
Desde los drones autónomos hasta los algoritmos de predicción de objetivos, los sistemas de IA están remodelando la naturaleza de los conflictos armados.
Estados Unidos, Ucrania, Rusia, China, Israel y otros países están inmersos en una carrera armamentística por la inteligencia artificial, cada uno de ellos compitiendo por la supremacía tecnológica en un panorama geopolítico cada vez más volátil.
A medida que surgen estas nuevas armas y tácticas, también lo hacen sus consecuencias.
Ahora nos enfrentamos a cuestiones críticas sobre el futuro de la guerra, el control humano y la ética de delegar en las máquinas decisiones de vida o muerte.
La IA podría haber desencadenado ya una escalada militar
De vuelta en 2017, Proyecto Maven representa el principal esfuerzo del Pentágono por integrar la IA en las operaciones militares. Su objetivo es permitir la identificación y el seguimiento de objetivos en tiempo real a partir de imágenes de drones sin intervención humana.
Aunque a menudo se habla de Project Maven en términos de análisis de imágenes de cámaras de drones, es probable que sus capacidades vayan mucho más allá.
Según la organización de vigilancia sin ánimo de lucro Investigación de Tech InquiryEl sistema de IA también procesa datos de satélites, radares, redes sociales e incluso activos enemigos capturados. Esta amplia gama de entradas se conoce como "inteligencia de todas las fuentes".
En marzo de 2023, se produjo un incidente militar cuando un avión no tripulado estadounidense MQ-9 Reaper colisionó con un caza ruso sobre el Mar Negro, lo que provocó que el avión no tripulado se estrellara.
Poco antes de ese incidente, la Agencia Nacional de Inteligencia Geoespacial (NGA) confirmó el uso de la tecnología del Proyecto Maven en Ucrania.
El teniente general Christopher T. Donahue, comandante del XVIII Cuerpo Aerotransportado, más tarde declaró claramente del conflicto Ucrania-Rusia: "Al fin y al cabo, esto se convirtió en nuestro laboratorio".
El Proyecto Maven en Ucrania incluía sistemas avanzados de IA integrados en el radar de apertura sintética (SAR) Lynx de los MQ-9 Reapers. Como tal, la IA podría haber sido decisiva en la colisión del dron.
Tras el incidente, Estados Unidos convocó al embajador ruso en Washington para expresarle sus objeciones, mientras que el Mando Europeo estadounidense calificó el incidente de "inseguro y poco profesional".
Rusia negó que se hubiera producido colisión alguna. En respuesta, EE.UU. reposicionó algunos aviones no tripulados para vigilar la región, ante lo que Rusia protestó.
Esta situación planteaba la amenazadora posibilidad de que los sistemas de IA influyeran en las decisiones militares, contribuyendo incluso a escaladas imprevistas en los conflictos militares.
Como se pregunta Tech Inquiry, "merece la pena determinar si el Proyecto Maven contribuyó inadvertidamente a una de las escaladas militares más importantes de nuestro tiempo".
Campos de minas éticos
Hasta la fecha, los resultados del proyecto Maven han sido bastante irregulares.
Según Datos de Bloomberg citados por el Independiente de Kiev"Al utilizar varios tipos de datos de imágenes, los soldados pueden identificar correctamente un tanque 84% de las veces, mientras que la IA del Proyecto Maven está más cerca de 60%, con la cifra cayendo en picado a 30% en condiciones de nieve".
Aunque las implicaciones éticas del uso de la IA para tomar decisiones de vida o muerte en la guerra son muy preocupantes, el riesgo de mal funcionamiento introduce un aspecto aún más escalofriante en esta carrera armamentística tecnológica.
No se trata sólo de si debemos utilizar la IA para atacar a seres humanos, sino de si podemos confiar en que estos sistemas funcionen según lo previsto en la niebla de la guerra.
¿Qué ocurre cuando los civiles cercanos son marcados como objetivos y destruidos de forma autónoma? ¿Y si el propio dron se vuelve loco y funciona mal, adentrándose en entornos en los que no está entrenado para operar?
En este contexto, el mal funcionamiento de la IA no es un mero fallo técnico, sino un catalizador potencial de tragedias a una escala inimaginable. A diferencia de los errores humanos, cuyo alcance podría ser limitado, un error de un sistema de IA podría provocar una matanza generalizada e indiscriminada en cuestión de segundos.
Ya se han asumido compromisos para frenar estos avances y mantener las armas bajo llave, como se demostró cuando 30 países adheridos US barandillas en tecnología militar de IA.
El Departamento de Defensa de Estados Unidos (DoD) también publicó cinco "principios éticos de la inteligencia artificial" para uso militar, incluyendo que "El personal del DoD ejercerá los niveles apropiados de juicio y cuidado, sin dejar de ser responsable del desarrollo, despliegue y uso de las capacidades de IA".
Sin embargo, la evolución reciente indica una desconexión entre estos principios y la práctica.
En primer lugar, es probable que la tecnología de IA ya sea responsable de incidentes graves fuera de su ámbito de actuación. En segundo lugar, el grupo de trabajo sobre IA generativa del DoD implica la subcontratación a empresas privadas como Palantir, Microsoft y OpenAI.
La colaboración con entidades comerciales no sujetas a la misma supervisión que las agencias gubernamentales arroja dudas sobre la capacidad del DoD para controlar el desarrollo de la IA.
Mientras tanto, el Comité Internacional de la Cruz Roja (CICR) ha iniciado debates sobre la legalidad de estos sistemassobre todo en lo que se refiere a la El principio de "distinción" de la Convención de Ginebraque obliga a distinguir entre combatientes y civiles.
Los algoritmos de IA son tan buenos como sus datos de entrenamiento y las reglas programadas, por lo que pueden tener problemas con esta diferenciación, especialmente en condiciones dinámicas e impredecibles del campo de batalla.
Como indica el incidente del dron en el Mar Negro, estos temores son reales. Sin embargo, los líderes militares de todo el mundo siguen siendo optimistas respecto a las máquinas de guerra dotadas de IA.
No hace mucho, un caza F-16 con inteligencia artificial superó a un piloto humano en una prueba de demostración.
El Secretario de la Fuerza Aérea de EE.UU., Frank Kendall, que lo experimentó de primera manoresumió la inercia que rodea a la tecnología militar de IA: "No tenerla es un riesgo para la seguridad. Llegados a este punto, tenemos que tenerla".
A primera vista, es una admisión sombría.
A pesar de milenios de guerras y sus devastadoras consecuencias, la mera idea de estar un paso por detrás del "enemigo" -esta ansiedad primigenia, quizá profundamente arraigada en nuestra psique- sigue anulando la razón.
Armamento de IA de fabricación nacional
En Ucrania, jóvenes empresas como Vyriy, Saker y Roboneers están desarrollando activamente tecnologías que difuminan la tenue línea que separa la toma de decisiones humana de la mecánica en el campo de batalla.
Saker desarrolló un sistema de puntería autónomo para identificar y atacar objetivos a una distancia de hasta 40 kilómetros, mientras que Roboneers creó una torreta ametralladora teledirigida que puede manejarse con un mando de videojuegos y una tableta.
Para informar sobre este nuevo estado de la guerra moderna potenciada por la IA, el New York Times siguió recientemente a Oleksii Babenko, de 25 años, director general del fabricante de drones Vyriy, que presentó la última creación de su empresa.
En una demostración real, Babenko condujo una moto a toda velocidad mientras el dron le seguía, libre de control humano. Los periodistas vieron la escena en la pantalla de un portátil.
El avanzado cuadricóptero acabó atrapándole y, en palabras de los periodistas, "si el dron hubiera estado armado con explosivos, y si sus colegas no hubieran desactivado el seguimiento autónomo, el Sr. Babenko habría muerto".
Al igual que Ucrania, el conflicto palestino-israelí está resultando ser un caldo de cultivo para la investigación militar en IA.
Entre las armas experimentales semiautónomas o con IA incorporada se encuentran los cuadricópteros teledirigidos armados con ametralladoras y misiles y el "Jaguarrobot semiautónomo para patrullas fronterizas.
El ejército israelí también ha creado torretas dotadas de inteligencia artificial que establecen lo que denominan "zonas de exterminio automatizadas" a lo largo de la frontera de Gaza.
Tal vez lo que más preocupa a los observadores de los derechos humanos son los sistemas automatizados de generación de objetivos de Israel. "El Evangelio" está diseñado para identificar objetivos de infraestructuras, mientras que "Lavanda" se centra en generar listas de objetivos humanos individuales.
Otro sistema, ominosamente llamado "¿Dónde está papá?"al parecer se utiliza para localizar a presuntos militantes cuando están con sus familias.
El medio de comunicación israelí de izquierdas +972, que informa desde Tel Aviv, admitió que es casi seguro que estos sistemas causaron víctimas civiles.
El camino a seguir
A medida que avanza la tecnología de IA militar, asignar responsabilidades por errores y fallos se convierte en una tarea intratable, un vacío moral y ético en espiral en el que ya hemos entrado.
¿Cómo podemos evitar un futuro en el que matar esté más automatizado que humanizado y la responsabilidad se pierda en una niebla algorítmica?
La actualidad y la retórica no inspiran cautela.