Droner med AI-kapacitet identificerer og angriber nu selvstændigt mål i Ukraine.
Ifølge en rapport fra New Scientister det næsten sikkert, at Droneangreb dræber russiske soldater uden direkte kommando eller tilsyn fra en menneskelig operatør, selvom der mangler officielle data.
Nøglespilleren i denne udvikling er quadcopteren Saker Scout, som for nylig blev taget i brug i ukrainsk tjeneste.
Denne drone kan transportere en nyttelast på 3 kg over en strækning på ca. 12 km. Droner af denne type har, når de fjernstyres, vist deres værd i den igangværende konflikt mellem Rusland og Ukraine. Denne særligt tunge model udgør en trussel mod selv tungt pansrede kampvogne.
Saker, en ukrainsk virksomhed etableret i 2021, havde oprindeligt til formål at tilbyde overkommelige AI-løsninger til små virksomheder, specifikt AI-drevne synssystemer til droner i sektorer som landbrug.
Men med Ruslands invasion gik firmaet over til at støtte militæret. Deres AI-visionsplatform genkender nu omkring 64 forskellige typer 'militære objekter', som omfatter køretøjer og andet hardware, oplyser en talsmand for virksomheden.
På trods af Saker Scouts autonome evner kan den også styres manuelt. I manuel tilstand angiver den kunstige intelligens mål og pletter og verificerer, hvad det er, før den slår til. Dronen er integreret i Ukraines efterretningsdistributionssystem Delta, som indhenter data fra forskellige luft- og satellitkilder for at skabe et holistisk billede af slagmarken.
Dronen har desuden to autonome funktioner. Den kan enten sendes til et område for at rekognoscere eller "instrueres i at finde og angribe mål autonomt".
Som talsmanden sagde til New Scientist, har Saker Scout allerede været i aktion i autonom tilstand, hvilket understreger udbredelsen af autonom militærteknologi på slagmarken - noget mange frygter.
Talsmanden understregede, at det at bruge dronen autonomt ikke er så idiotsikkert som at have en menneskelig operatør involveret, men at AI'en havde bevist sin effektivitet, og at det var unødvendigt at vente, indtil "den var perfekt".
Mykhailo Fedorov, Ukraines minister for digital transformation, har tidligere udtalt, at autonome våben er en "logisk og uundgåelig" udvikling inden for droneteknologi, når han reflekterer over krigsførelsens dynamik.
Paul Scharre fra Center for a New American Security kommenterede den allestedsnærværende teknologi således: "Billedklassifikatorer har eksisteret i mindst 10 år, og denne type software kan nemt downloades og trænes på passende data."
Han udtrykte desuden bekymring over dronens tilbøjelighed til at fejlidentificere mål og sagde: "De systemer, der er demonstreret indtil nu, har en vis grad af falske positiver, hvilket er forventeligt."
Myndigheder verden over, herunder FN, har i årevis overvejet regulerende foranstaltninger vedrørende autonome våben.
En FN-rapport fra 2021 hentydede til en mulig indsættelse af autonome angrebsdroner i Libyen i 2020, men dette er fortsat ikke underbygget. På nuværende tidspunkt er der ingen detaljeret lovgivning, der regulerer brugen af autonome våben.
Det amerikanske forsvarsministerium (DoD) oprettede fem "Etiske principper for kunstig intelligens," herunder "Ansvarlig", defineret som "DoD-personale vil udøve passende niveauer af dømmekraft og omhu, mens de forbliver ansvarlige for udvikling, implementering og brug af AI-kapaciteter."
Selvom regler som denne viser, at man har til hensigt at kontrollere AI-våben, er de ekstremt subjektive uden robuste definitioner af udtryk som "passende niveauer af dømmekraft og omhu".
I den forbindelse siger Scharre: "Et centralt element i debatten har været sådanne våbens evne til at overholde krigens love og undgå civile tab."
Etiske dilemmaer
Autonome våben udgør mange etiske spørgsmål.
Hvem er ansvarlig, hvis det går galt? Hvad sker der, hvis de fejlidentificerer 'mål', hvilket kan resultere i civile tab? Og måske mest dystopisk: Hvad hvis AI-våben vender sig mod deres operatører eller går amok?
Indtil videre er disse teknologier stadig sjældne, og vi har kun begrænset dokumentation for deres sikkerhed.
Mens den åbne krigsskueplads i Ukraine kan udgøre en minimal civil risiko, er det måske ikke tilfældet et sted, hvor der er mere trængsel, som for eksempel i Palæstina.
AI's stigende rolle på slagmarken er måske uundgåelig, da teknologien lover intelligente, skalerbare og omkostningseffektive operationer, der ikke bringer den ene sides personale i fare.