Droner dreper russiske soldater på egen hånd i Ukraina

14. oktober 2023

AI Russland

Droner med kunstig intelligens identifiserer og angriper nå mål i Ukraina på egen hånd. 

Ifølge en rapport fra New Scientister det nesten helt sikkert at droneangrep dreper russiske soldater uten direkte kommando eller tilsyn fra en menneskelig operatør, selv om det mangler offisielle data. 

Den viktigste aktøren i denne utviklingen er quadcopteret Saker Scout, som nylig ble tatt i bruk i ukrainsk tjeneste. 

Denne dronen kan transportere en nyttelast på 3 kilo over en strekning på rundt 12 kilometer. Fjernstyrte droner av denne typen har vist seg å være nyttige i den pågående konflikten mellom Russland og Ukraina. Denne tunge modellen utgjør en trussel selv mot tungt pansrede stridsvogner.

Saker, et ukrainsk selskap som ble etablert i 2021, hadde i utgangspunktet som mål å tilby rimelige AI-løsninger til små bedrifter, spesielt AI-drevne synssystemer for droner i sektorer som landbruk. 

Men med Russlands invasjon gikk firmaet over til å støtte militæret. Deres AI-visjonsplattform gjenkjenner nå rundt 64 ulike typer "militære objekter", som inkluderer kjøretøy og annen maskinvare, opplyser en talsperson for selskapet.

Til tross for Saker Scouts autonome egenskaper kan den også styres manuelt. I manuell modus indikerer den kunstige intelligensen mål og flekker og verifiserer hva det er før den slår til. Dronen er integrert med Ukrainas Delta Intelligence Distribution System, som tar inn data fra ulike luft- og satellittkilder for å skape et helhetlig bilde av slagmarken.

Dronen har dessuten to autonome funksjoner. Den kan enten sendes ut til et område for rekognosering eller "instrueres til å finne og angripe mål på egen hånd". 

Som talspersonen formidlet til New Scientist, har Saker Scout allerede vært i aksjon i autonom modus, noe som understreker utplasseringen av autonom militær teknologi på slagmarken - noe mange frykter. 

Talspersonen understreket at det å bruke dronen autonomt ikke er like idiotsikkert som å ha en menneskelig operatør involvert, men at den kunstige intelligensen hadde bevist sin effektivitet, og at det var unødvendig å vente til "den var perfekt".

Mykhailo Fedorov, Ukrainas minister for digital transformasjon, har tidligere uttalt at autonome våpen representerer en "logisk og uunngåelig" utvikling innen droneteknologi.

Paul Scharre fra Center for a New American Security kommenterte denne teknologiens utbredelse slik: "Bildeklassifiseringsprogrammer har eksistert i minst ti år, og denne typen programvare kan enkelt lastes ned og trenes opp på egnede data." 

Han uttrykte videre bekymring for dronens tilbøyelighet til å feilidentifisere mål, og sa: "De systemene som er demonstrert så langt, har en viss grad av falske positiver, noe som er å forvente."

Myndigheter over hele verden, inkludert FN, har i årevis diskutert reguleringstiltak for autonome våpen. 

En FN-rapport fra 2021 antydet mulig utplassering av autonome angrepsdroner i Libya i 2020, men dette er fortsatt ikke underbygget. For øyeblikket finnes det ingen detaljert lovgivning som regulerer bruken av autonome våpen. 

Det amerikanske forsvarsdepartementet (DoD) opprettet fem "etiske prinsipper for kunstig intelligens", inkludert "Ansvarlig", definert som "DoD-personell vil utøve passende nivåer av dømmekraft og forsiktighet, samtidig som de forblir ansvarlige for utvikling, utplassering og bruk av AI-kapasiteter." 

Selv om regler som dette innebærer en intensjon om å kontrollere AI-våpen, er de ekstremt subjektive uten robuste definisjoner av begreper som "passende nivåer av dømmekraft og aktsomhet". 

I den forbindelse sier Scharre: "Et sentralt element i debatten har vært slike våpens evne til å overholde krigens folkerett og unngå sivile tap." 

Etiske dilemmaer

Autonome våpen utgjør en rekke etiske problemstillinger

Hvem er ansvarlig hvis det går galt? Hva skjer når de feilidentifiserer "mål", noe som kan føre til sivile tap? Og kanskje mest dystopisk: Hva skjer hvis AI-våpen vender seg mot operatørene sine eller blir useriøse?

Så langt er disse teknologiene fortsatt sjeldne, og vi har begrenset dokumentasjon på at de er trygge. 

Mens det åpne krigsskueplassen i Ukraina kan utgjøre en minimal risiko for sivile, er det ikke sikkert at det er tilfelle andre steder med større befolkningstetthet, som for eksempel i Palestina. 

AIs økende rolle på slagmarken er kanskje uunngåelig, ettersom teknologien lover intelligente, skalerbare og kostnadseffektive operasjoner som ikke setter den ene partens personell i fare. 

Bli med i fremtiden


ABONNER I DAG

Tydelig, kortfattet og omfattende. Få et grep om AI-utviklingen med DagligAI

Sam Jeans

Sam er en vitenskaps- og teknologiskribent som har jobbet i ulike oppstartsbedrifter innen kunstig intelligens. Når han ikke skriver, leser han medisinske tidsskrifter eller graver seg gjennom esker med vinylplater.

×

GRATIS PDF EKSKLUSIV
Hold deg i forkant med DailyAI

Meld deg på vårt ukentlige nyhetsbrev og få eksklusiv tilgang til DailyAIs nyeste e-bok: "Mastering AI Tools: Din 2024-guide til økt produktivitet".

*Ved å abonnere på vårt nyhetsbrev aksepterer du vår Retningslinjer for personvern og vår Vilkår og betingelser