US Luftvåbnets sekretær Frank Kendall fløj et eksperimentelt AI-drevet F-16-jagerfly i en testflyvning på Edwards Air Force Base i Californien.
Den AI-styrede F-16, X-62A VISTA (Variable In-flight Simulator Test Aircraft), deltog i en luftkamp med en menneskestyret F-16.
De to jetfly fløj inden for 1.000 meter af hinanden med hastigheder på over 550 miles i timen, udførte komplekse højhastighedsmanøvrer og forsøgte at tvinge modstanderen ind i sårbare positioner.
Udenrigsminister Kendall, som oplevede det AI-styrede jetfly på første hånd under den timelange flyvetur, udtrykte, at AI-våben er uundgåelige: "Det er en sikkerhedsrisiko ikke at have det. På dette tidspunkt er vi nødt til at have det."
I slutningen af flyveturen erklærede minister Kendall, at han havde set nok til at stole på AI på slagmarken.
Det sker efter en Seneste test af det samme fly i en live dogfight-situation.
Bekymring over AI-våben vokser
Det er ingen overraskelse, at udsigten til, at AI selvstændigt kan affyre våben uden menneskelig indgriben, er enormt kontroversiel.
På en nylig international konferencePå konferencen "Humanity at the Crossroads: Autonomous Weapons Systems and the Challenge of Regulation" i Wien, debatterede deltagere fra 143 lande det presserende behov for at regulere brugen af kunstig intelligens i autonome våbensystemer (AWS).
Den østrigske udenrigsminister Alexander Schallenberg advarede om, at verden står over for et "Oppenheimer-øjeblik" med henvisning til udviklingen af den første atombombe.
Han understregede: "Lad os i det mindste sørge for, at den mest dybtgående og vidtrækkende beslutning - hvem der lever, og hvem der dør - forbliver i hænderne på mennesker og ikke på maskiner."
Andre har sat spørgsmålstegn ved Hvem ville være ansvarlig? hvis AI-våben gik galt. Producenten? Den, der har kommandoen over operationen? Eller nogen længere nede i rækkerne, der trykker på knapper og overvåger udstyr?
AI bliver ikke bare imprægneret i våben - det bliver også brugt til at udvikle en strategi for slagmarken. Men.., En nylig undersøgelse fandt ud af, at sprogmodeller kan optrappe krigsspil til atomkrig.
Autonome droner anvendes allerede af begge sider i krigen i Ukraine, mens israelske styrker angiveligt bruger kunstig intelligens til at identificere menneskelige mål i krigen i Gaza.
På trods af disse bekymringer US Luftvåbnet har ambitiøse planer om en AI-aktiveret flåde bestående af mere end 1.000 ubemandede krigsfly i drift inden 2028.
Vista hævder, at intet andet land har et AI-jetfly som det, og henviser primært til Kinas fravær af sådanne våben, så vidt vestlige kilder kan se.
Mens Kina har AI-teknologi, der stort set er på niveau med USDer er ikke noget, der tyder på, at de foretager sådanne felttests.
Som den US Luftvåbnet fortsætter med at skubbe til grænserne for AI-drevet luftfart, og det internationale samfund kæmper med, hvad det kan betyde for moderne krigsførelse.
Det er et usikkert grundlag, som kun science fiction-plotlines har, og de fleste ender ikke godt for nogen.