Drönare med AI-kapacitet identifierar och angriper nu mål i Ukraina på egen hand.
Enligt en rapport från New Scientistär det nästan helt säkert att drönarattacker dödar ryska soldater utan direkt kommando eller övervakning från en mänsklig operatör, även om officiella uppgifter saknas.
Nyckelspelaren i denna utveckling är quadcoptern Saker Scout, som nyligen togs i bruk i ukrainsk tjänst.
Denna drönare kan transportera en nyttolast på 3 kilo över en sträcka på cirka 12 kilometer. Drönare av den här typen, som fjärrstyrs, har visat sig vara värdefulla i den pågående konflikten mellan Ryssland och Ukraina. Just denna tungviktsmodell utgör ett hot även mot tungt bepansrade stridsvagnar.
Saker, ett ukrainskt företag som grundades 2021, hade ursprungligen som mål att erbjuda prisvärda AI-lösningar till småföretag, särskilt AI-drivna visionssystem för drönare inom sektorer som jordbruk.
Men i och med Rysslands invasion övergick företaget till att stödja militären. Deras AI-visionsplattform känner nu igen cirka 64 olika typer av "militära objekt", vilket inkluderar fordon och annan hårdvara, enligt en talesperson för företaget.
Trots Saker Scouts autonoma kapacitet kan den också styras manuellt. I manuellt läge indikerar AI:n mål och upptäcker och verifierar vad det är innan den slår till. Drönaren är integrerad med Ukrainas Delta intelligence distribution system, som tar in data från olika flyg- och satellitkällor för att skapa en helhetsbild av slagfältet.
Drönaren har dessutom dubbla autonoma funktioner. Den kan antingen skickas ut till en region för spaning eller "instrueras att hitta och attackera mål på egen hand".
Som talespersonen förmedlade till New Scientist har Saker Scout redan sett action i autonomt läge, vilket understryker användningen av autonom militär teknik på slagfältet - något som många fruktar.
Talespersonen betonade att det inte är lika idiotsäkert att använda drönaren autonomt som att ha en mänsklig operatör inblandad, men att AI hade bevisat sin effektivitet och att det var onödigt att vänta tills "det var perfekt".
Mykhailo Fedorov, Ukrainas minister för digital transformation, har tidigare sagt att autonoma vapen utgör en "logisk och oundviklig" utveckling av drönartekniken.
Paul Scharre från Center for a New American Security kommenterade att den här tekniken finns överallt: "Bildklassificerare har funnits i minst 10 år och den här typen av programvara kan enkelt laddas ner och tränas på lämpliga data."
Han uttryckte vidare oro över drönarens benägenhet att felidentifiera mål och sa: "De system som hittills demonstrerats har en viss grad av falska positiva resultat, vilket är att förvänta."
Myndigheter världen över, inklusive FN, har i flera år diskuterat regleringsåtgärder för autonoma vapen.
I en FN-rapport från 2021 antyddes att autonoma attackdrönare eventuellt skulle ha använts i Libyen under 2020, men detta har inte bekräftats. För närvarande finns det ingen detaljerad lagstiftning som reglerar användningen av autonoma vapen.
USA:s försvarsdepartement (DoD) skapade fem "etiska principer för artificiell intelligens", inklusive "Ansvarig", som definieras som "DoD-personal kommer att utöva lämpliga nivåer av omdöme och försiktighet, samtidigt som de förblir ansvariga för utveckling, utplacering och användning av AI-funktioner."
Regler som dessa visar visserligen att man har för avsikt att kontrollera AI-vapen, men utan robusta definitioner av termer som "lämpliga nivåer av omdöme och försiktighet" är de extremt subjektiva.
I detta sammanhang konstaterar Scharre: "En central fråga i debatten har varit huruvida sådana vapen kan följa krigets lagar och undvika civila dödsoffer."
Etiska dilemman
Autonoma vapen utgör många etiska frågor.
Vem är ansvarig om de går fel? Vad händer när de felidentifierar "mål", vilket kan leda till civila dödsoffer? Och kanske mest dystopiskt, vad händer om AI-vapen vänder sig mot sina operatörer eller blir oseriösa?
Hittills är dessa tekniker fortfarande sällsynta och vi har begränsade bevis för att de är säkra.
Även om den öppna krigsskådeplatsen i Ukraina kan utgöra en minimal civil risk, är det inte säkert att så är fallet på en mer trång plats, som till exempel Palestina.
AI:s ökande roll på slagfältet är kanske oundviklig, eftersom tekniken utlovar intelligenta, skalbara och kostnadseffektiva operationer som inte utsätter den ena sidans personal för risker.