Mens konfliktene raser i Ukraina og Midtøsten, har den moderne slagmarken blitt et testområde for AI-drevet krigføring.
Fra autonome droner til prediktive målstyringsalgoritmer - AI-systemer er i ferd med å omforme væpnede konflikter.
USA, Ukraina, Russland, Kina, Israel og andre er låst fast i et AI-våpenkappløp, der alle kjemper om teknologisk overherredømme i et stadig mer ustabilt geopolitisk landskap.
Etter hvert som disse nye våpnene og taktikkene dukker opp, får de også konsekvenser.
Vi står nå overfor kritiske spørsmål om krigføringens fremtid, menneskelig kontroll og etikken i å overlate beslutninger om liv og død til maskiner.
KI kan allerede ha utløst militær opptrapping
Tilbake i 2017, Prosjekt Maven representerte Pentagons første forsøk på å integrere kunstig intelligens i militære operasjoner. Målet er å muliggjøre identifisering og sporing av mål i sanntid fra droneopptak uten menneskelig inngripen.
Selv om Project Maven ofte omtales i forbindelse med analyse av opptak fra dronekameraer, er det sannsynlig at mulighetene strekker seg mye lenger.
Ifølge den ideelle vakthunden Tech Inquiry's forskningI tillegg behandler AI-systemet også data fra satellitter, radar, sosiale medier og til og med erobrede fiendtlige ressurser. Dette brede spekteret av inndata er kjent som "allkildeetterretning".
I mars 2023 inntraff en militær hendelse da en amerikansk MQ-9 Reaper-drone kolliderte med et russisk jagerfly over Svartehavet, noe som førte til at dronen styrtet.
Kort tid før denne hendelsen bekreftet National Geospatial-Intelligence Agency (NGA) at de hadde brukt Project Maven-teknologi i Ukraina.
Generalløytnant Christopher T. Donahue, sjef for XVIII luftbårne korps, ble senere sa det ganske klart og tydelig om Ukraina-Russland-konflikten: "Til syvende og sist ble dette vårt laboratorium."
Prosjekt Maven i Ukraina involverte avanserte AI-systemer integrert i Lynx Synthetic Aperture Radar (SAR) på MQ-9 Reapers. Dermed kan kunstig intelligens ha vært avgjørende for dronekollisjonen.
I etterkant av hendelsen innkalte USA den russiske ambassadøren til Washington for å uttrykke sine innvendinger, mens den amerikanske Europakommandoen kalte hendelsen "utrygg og uprofesjonell".
Russland benektet at det hadde skjedd noen kollisjon. Som svar på dette plasserte USA ut noen ubemannede fly for å overvåke området, noe Russland protesterte mot.
Denne situasjonen skapte en truende mulighet for at AI-systemer kunne påvirke militære beslutninger, og til og med bidra til uforutsette opptrappinger i militære konflikter.
Som Tech Inquiry spør: "Det er verdt å finne ut om Project Maven utilsiktet bidro til en av de mest betydningsfulle militære opptrappingene i vår tid."
Etiske minefelt
Prosjekt Maven har hittil hatt svært varierende resultater.
Ifølge Siterte Bloomberg-data av Kyiv Independent"Ved bruk av ulike typer bildedata kan soldater identifisere en stridsvogn i 84% av tilfellene, mens Project Maven AI ligger nærmere 60%, og tallet synker til 30% i snøvær."
De etiske implikasjonene av å bruke kunstig intelligens til å ta avgjørelser om liv eller død i krigføring er dypt bekymringsfulle, men risikoen for funksjonsfeil introduserer et enda mer skremmende aspekt ved dette teknologiske våpenkappløpet.
Det er ikke bare et spørsmål om vi bør bruke kunstig intelligens til å angripe mennesker, men også om vi kan stole på at disse systemene fungerer etter hensikten i krigens tåke.
Hva skjer når sivile i nærheten blir utpekt som mål og ødelagt autonomt? Og hva om dronen selv går amok og ikke fungerer som den skal, og beveger seg inn i miljøer den ikke er trent til å operere i?
En AI-feil i denne sammenhengen er ikke bare en teknisk feil - det er en potensiell katalysator for tragedier av ufattelig omfang. I motsetning til menneskelige feil, som kan være begrenset i omfang, kan et AI-systems feil føre til et omfattende og vilkårlig blodbad i løpet av sekunder.
Forpliktelser til å bremse denne utviklingen og holde våpnene under lås og slå har allerede blitt inngått, som vist da 30 land sluttet seg til US rekkverk om militær AI-teknologi.
Det amerikanske forsvarsdepartementet (DoD) ga også ut fem "etiske prinsipper for kunstig intelligens" for militær bruk, inkludert at "Forsvarsdepartementets personell vil utvise tilstrekkelig skjønn og forsiktighet, samtidig som de fortsatt er ansvarlige for utvikling, utplassering og bruk av AI-kapasiteter."
Den siste tidens utvikling tyder imidlertid på at det er et gap mellom disse prinsippene og praksis.
For det første er det sannsynlig at AI-teknologi allerede er ansvarlig for alvorlige hendelser som ligger utenfor det tiltenkte området. For det andre innebærer DoDs generative AI-arbeidsgruppe outsourcing til private selskaper som Palantir, Microsoft og OpenAI.
Samarbeid med kommersielle aktører som ikke er underlagt samme tilsyn som offentlige etater, sår tvil om Forsvarsdepartementets evne til å kontrollere utviklingen av kunstig intelligens.
I mellomtiden har Den internasjonale Røde Kors-komiteen (ICRC) tatt initiativ til diskusjoner om lovligheten av disse systemene, særlig med hensyn til Genèvekonvensjonens prinsipp om "distinksjon"som pålegger å skille mellom stridende og sivile.
AI-algoritmer er bare så gode som treningsdataene og de programmerte reglene, så de kan slite med denne differensieringen, spesielt under dynamiske og uforutsigbare forhold på slagmarken.
Som dronehendelsen i Svartehavet viser, er denne frykten reell. Likevel er militære ledere over hele verden fortsatt optimistiske når det gjelder AI-infunderte krigsmaskiner.
For ikke lenge siden utkonkurrerte et AI-drevet F-16-jagerfly menneskelige piloter i en testdemonstrasjon.
USAs luftforsvarsminister Frank Kendall, som opplevde det på nært hold, oppsummerte tregheten rundt militær AI-teknologi: "Det er en sikkerhetsrisiko å ikke ha det. På dette tidspunktet er vi nødt til å ha det."
Det er umiddelbart en dyster innrømmelse.
Til tross for årtusener med krigføring og dens ødeleggende konsekvenser, fortsetter bare tanken på å være ett skritt bak "fienden" - denne urangsten, som kanskje er dypt forankret i vår psyke - å overstyre fornuften.
Egenutviklede AI-våpen
I Ukraina er unge selskaper som Vyriy, Saker og Roboneers i full gang med å utvikle teknologi som utvisker den hårfine grensen mellom menneskelig og maskinell beslutningstaking på slagmarken.
Saker har utviklet et autonomt målsøkingssystem som kan identifisere og angripe mål på opptil 25 kilometers avstand, mens Roboneers har utviklet et fjernstyrt maskingeværtårn som kan betjenes ved hjelp av en spillkontroller og et nettbrett.
I en rapport om denne nye tilstanden av AI-drevet moderne krigføring New York Times fulgte nylig Oleksii Babenko, en 25 år gammel administrerende direktør i droneprodusenten Vyriy, som viste frem selskapets nyeste kreasjon.
I en virkelig demonstrasjon kjørte Babenko motorsykkel i full fart mens dronen fulgte etter ham, uten menneskelig kontroll. Reporterne fulgte med på scenen på en bærbar PC-skjerm.
Det avanserte quadrokopteret fanget ham til slutt, og som journalistene skriver: "Hvis dronen hadde vært bevæpnet med eksplosiver, og hvis kollegene hans ikke hadde koblet ut den autonome sporingen, ville Babenko ha vært død."
På samme måte som i Ukraina har Israel-Palestina-konflikten vist seg å være et arnested for militær AI-forskning.
Eksperimentelle AI-innebygde eller semi-autonome våpen inkluderer fjernstyrte quadcopters bevæpnet med maskingeværer og missiler og "Jaguar", en halvautonom robot som brukes til grensepatruljering.
Det israelske militæret har også utviklet AI-drevne tårn som etablerer det de kaller "automatiserte drapssoner" langs grensen til Gaza.
Det som kanskje bekymrer menneskerettighetsobservatører mest, er Israels automatiserte målgenereringssystemer. "Evangeliet" er utformet for å identifisere infrastrukturmål, mens "Lavendel" fokuserer på å generere lister over individuelle menneskelige mål.
Et annet system, med det illevarslende navnet "Hvor er pappa?"brukes angivelig til å spore mistenkte militante når de er sammen med familiene sine.
Det venstreorienterte israelske nyhetsbyrået +972, som rapporterte fra Tel Aviv, innrømmet at disse systemene nesten helt sikkert førte til sivile tap.
Veien videre
Etter hvert som den militære AI-teknologien utvikler seg, blir det en uløselig oppgave å plassere ansvaret for feil og mangler - et moralsk og etisk tomrom vi allerede er på vei inn i.
Hvordan kan vi forhindre en fremtid der drap er mer automatisert enn menneskelig, og der ansvarlighet forsvinner i en algoritmisk tåke?
Aktuelle hendelser og retorikk maner ikke til forsiktighet.