US El Secretario del Ejército del Aire, Frank Kendall, pilotó un caza F-16 experimental con inteligencia artificial en un vuelo de prueba en la base Edwards de las Fuerzas Aéreas de California.
El F-16 controlado por IA, el X-62A VISTA (Variable In-flight Simulator Test Aircraft), participó en un combate aéreo con un F-16 pilotado por humanos.
Los dos reactores volaron a menos de 1.000 pies el uno del otro a velocidades superiores a 550 millas por hora, realizando complejas maniobras a alta velocidad e intentando forzar al adversario a posiciones vulnerables.
El Secretario Kendall, que experimentó de primera mano el avión pilotado por IA durante el vuelo de una hora de duración, expresó la inevitabilidad del armamento de IA: "No tenerlo es un riesgo para la seguridad. Llegados a este punto, tenemos que tenerlo".
Al final del vuelo, el Secretario Kendall declaró que había visto lo suficiente para confiar en la IA en el campo de batalla.
Esto sigue a un prueba reciente de la misma aeronave en una situación de combate aéreo real.
Crece la preocupación por las armas de IA
No en vano, la perspectiva de que la IA lance armas de forma autónoma sin intervención humana es inmensamente controvertida.
En una reciente conferencia internacionalLa humanidad en la encrucijada: Autonomous Weapons Systems and the Challenge of Regulation", en Viena, asistentes de 143 países debatieron sobre la urgente necesidad de regular el uso de la IA en los sistemas de armas autónomas (AWS).
El ministro austriaco de Asuntos Exteriores, Alexander Schallenberg, advirtió de que el mundo se enfrenta a un "momento Oppenheimer", en referencia al desarrollo de la primera bomba atómica.
Subrayó: "Al menos asegurémonos de que la decisión más profunda y trascendental -quién vive y quién muere- quede en manos de humanos y no de máquinas".
Otros han cuestionado quién sería el responsable si el armamento de IA saliera mal. ¿El fabricante? ¿El que está al mando de la operación? ¿O alguien más abajo en el escalafón apretando botones y supervisando el equipo?
La IA no sólo se está impregnando en las armas: también se está utilizando para desarrollar la estrategia del campo de batalla. Sin embargo, un estudio reciente descubrió que los modelos lingüísticos pueden llevar los juegos de guerra hacia una guerra nuclear.
Los drones autónomos ya están siendo desplegados por ambos bandos en la guerra de Ucrania, mientras que las fuerzas israelíes supuestamente están utilizando IA para identificar objetivos humanos en la guerra de Gaza.
A pesar de estas preocupaciones, la US Las Fuerzas Aéreas tienen ambiciosos planes para una flota con IA compuesta por más de 1.000 aviones de guerra no tripulados operativa en 2028.
Vista afirma que ningún otro país dispone de un avión con inteligencia artificial como éste, refiriéndose principalmente a la ausencia de armamento de este tipo en China, según fuentes occidentales.
China dispone de una tecnología de IA comparable a la de la UE. USno hay indicios de que realice pruebas de campo como ésta.
Como el US El Ejército del Aire sigue ampliando los límites de la aviación basada en IA, mientras la comunidad internacional se pregunta qué puede significar esto para la guerra moderna.
Es un terreno precario sólo transitado por argumentos de ciencia ficción, la mayoría de los cuales no terminan favorablemente para nadie.