Det amerikanske luftvåbens sekretær Frank Kendall tester et AI-styret jagerfly

4. maj 2024

  • Det amerikanske luftvåbens sekretær Frank Kendall testede et AI-styret F-16-kampfly
  • Demonstrationen involverede manøvrer ved 550 km/t og interaktioner med et andet jetfly.
  • Kendall sagde, at AI-styrede jetfly er klar til praktisk brug i marken
AI F-16

US Luftvåbnets sekretær Frank Kendall fløj et eksperimentelt AI-drevet F-16-jagerfly i en testflyvning på Edwards Air Force Base i Californien.

Den AI-styrede F-16, X-62A VISTA (Variable In-flight Simulator Test Aircraft), deltog i en luftkamp med en menneskestyret F-16.

De to jetfly fløj inden for 1.000 meter af hinanden med hastigheder på over 550 miles i timen, udførte komplekse højhastighedsmanøvrer og forsøgte at tvinge modstanderen ind i sårbare positioner.

Udenrigsminister Kendall, som oplevede det AI-styrede jetfly på første hånd under den timelange flyvetur, udtrykte, at AI-våben er uundgåelige: "Det er en sikkerhedsrisiko ikke at have det. På dette tidspunkt er vi nødt til at have det."

I slutningen af flyveturen erklærede minister Kendall, at han havde set nok til at stole på AI på slagmarken. 

Det sker efter en Seneste test af det samme fly i en live dogfight-situation.

Bekymring over AI-våben vokser

Det er ingen overraskelse, at udsigten til, at AI selvstændigt kan affyre våben uden menneskelig indgriben, er enormt kontroversiel. 

På en nylig international konferencePå konferencen "Humanity at the Crossroads: Autonomous Weapons Systems and the Challenge of Regulation" i Wien, debatterede deltagere fra 143 lande det presserende behov for at regulere brugen af kunstig intelligens i autonome våbensystemer (AWS).

Den østrigske udenrigsminister Alexander Schallenberg advarede om, at verden står over for et "Oppenheimer-øjeblik" med henvisning til udviklingen af den første atombombe. 

Han understregede: "Lad os i det mindste sørge for, at den mest dybtgående og vidtrækkende beslutning - hvem der lever, og hvem der dør - forbliver i hænderne på mennesker og ikke på maskiner."

Andre har sat spørgsmålstegn ved Hvem ville være ansvarlig? hvis AI-våben gik galt. Producenten? Den, der har kommandoen over operationen? Eller nogen længere nede i rækkerne, der trykker på knapper og overvåger udstyr?

AI bliver ikke bare imprægneret i våben - det bliver også brugt til at udvikle en strategi for slagmarken. Men.., En nylig undersøgelse fandt ud af, at sprogmodeller kan optrappe krigsspil til atomkrig. 

Autonome droner anvendes allerede af begge sider i krigen i Ukraine, mens israelske styrker angiveligt bruger kunstig intelligens til at identificere menneskelige mål i krigen i Gaza.

På trods af disse bekymringer US Luftvåbnet har ambitiøse planer om en AI-aktiveret flåde bestående af mere end 1.000 ubemandede krigsfly i drift inden 2028. 

Vista hævder, at intet andet land har et AI-jetfly som det, og henviser primært til Kinas fravær af sådanne våben, så vidt vestlige kilder kan se.

Mens Kina har AI-teknologi, der stort set er på niveau med USDer er ikke noget, der tyder på, at de foretager sådanne felttests. 

Som den US Luftvåbnet fortsætter med at skubbe til grænserne for AI-drevet luftfart, og det internationale samfund kæmper med, hvad det kan betyde for moderne krigsførelse. 

Det er et usikkert grundlag, som kun science fiction-plotlines har, og de fleste ender ikke godt for nogen.

Deltag i fremtiden


TILMELD DIG I DAG

Klar, kortfattet, omfattende. Få styr på AI-udviklingen med DailyAI

Sam Jeans

Sam er videnskabs- og teknologiforfatter og har arbejdet i forskellige AI-startups. Når han ikke skriver, kan han finde på at læse medicinske tidsskrifter eller grave i kasser med vinylplader.

×

GRATIS PDF EKSKLUSIVT
Vær på forkant med DailyAI

Tilmeld dig vores ugentlige nyhedsbrev og få eksklusiv adgang til DailyAI's seneste e-bog: 'Mastering AI Tools: Din 2024-guide til forbedret produktivitet'.

*Ved at tilmelde dig vores nyhedsbrev accepterer du vores Politik for beskyttelse af personlige oplysninger og vores Vilkår og betingelser