I en verden, hvor "krigsspil" ikke længere kun refererer til brætspil eller videospil, men til scenarier om liv og død, der faciliteres af maskinel intelligens, er spørgsmålet om ansvar monumentalt.
Militæret optrapper forskning og investeringer i AI.
Nogle analytikere definerede et 11-dages møde mellem Israel og Palæstina i 2021 som det første "AI-krig", hvor israelske teknologier hjalp med efterretninger og indsættelse på slagmarken.
I de seneste måneder, tDet amerikanske militær etablerede en Generativ AI-arbejdsgruppe og testede med succes en autonomt AI-drevet jetfly.
AI's stigende rolle i krigsførelse giver en række komplekse juridiske og etiske dilemmaer, som vi endnu ikke har besvaret, selv på trods af at AI-drevet militærteknologi anvendes netop nu.
Hvem har ansvaret, når AI går galt?
Den militære teknologiproducent Rafaels "Ildvæver" lokaliserer fjendens positioner ved hjælp af sensorer og foreslår den bedst placerede enhed til at skyde på dem.
I produktbeskrivelsen står der: "Fire Weaver beregner Rules of Engagement og styrer måludpegning og affyring ved at bruge den bedst egnede skytte til hvert mål."
"Beregner" er det afgørende ord her. AI-våben kan reducere beslutningen om at ødelægge et mål til en binær ja/nej-beslutning, så hvad nu hvis Fire Weaver forveksler et barn med en fjendtlig soldat? Eller en lastbil med humanitær hjælp i stedet for et fjendtligt køretøj?
I øjeblikket er manglen på moralsk, etisk og juridisk klarhed skrigende. Kunstig intelligens befinder sig i et juridisk og etisk vakuum, og sådan kan det blive ved med at være, for lovgivningen er notorisk langsom - og den møder sjældent en teknologi, der udvikler sig så hurtigt.
I samfundet som helhed er der allerede mange eksempler på, at AI går på kompromis med mennesker og deres rettigheder. De giver et glimt af det tomrum i lovgivningen og etikken, som AI og dens forskellige anvendelser har skabt.
For eksempel, ChatGPT påstået En mand fra Georgia, Mark Walters, blev fundet skyldig i underslæb og anklagede juraprofessor Jonathan Turley for seksuelle overgreb. ChatGPT var falsk i begge tilfælde.
På samme måde har Getty Images og flere kunstnere, forfattere og andre skabere lanceret Retssager om ophavsret mod teknologivirksomheder for at bruge træningsdata til at bygge deres modeller.
Træningsdata indsamles ofte fra tredjeparter som Common Crawl og "skyggebiblioteker" som Bibliotik, der minder om torrentsider som PirateBay.
Hvem er i så fald ansvarlig for krænkelse af ophavsretten? AI-udviklerne eller udgiverne af datasættene? Det er en tegneserieagtig ansvarscirkel, hvor hver potentielt skyldig part peger på dem ved siden af sig, og i sidste ende slipper alle for skylden.
Dette uklare etiske landskab er langt mere risikabelt i forbindelse med AI-våben og algoritmiske militærtaktikker, hvor en models beregninger bogstaveligt talt kan afgøre liv eller død.
Militære organisationer er allerede opmærksomme på det paradigmeskifte, som AI-våben udgør. Ifølge Department of Defense (DoD) er den første af de fem "Etiske principper for kunstig intelligens" til militær brug er "Ansvarlig", defineret som: "DoD-personale vil udøve passende niveauer af dømmekraft og omhu, mens de forbliver ansvarlige for udvikling, implementering og brug af AI-kapaciteter."
Det betyder, at et menneske i sidste ende skal være ansvarlig for maskinens handlinger. Militæret har altid baseret sig på princippet om, at nogen - typisk den øverstbefalende eller en soldat - skal holdes ansvarlig for handlinger, der foretages under krigsførelse. Men AI's rolle i beslutningsprocessen bliver stadig mere uklar.
Det første spørgsmål er, at når AI får mere sofistikerede roller inden for målretning, overvågning og andre områder, er det så ensbetydende med skyld at trykke på "godkend"-knappen?
Hvis AI's forudsigelser f.eks. slog fejl og resulterede i civile tab, er det tvivlsomt, om nogen ville acceptere, at 'maskinen' fik hele skylden for en ulykke.
Til gengæld kan der være situationer, hvor mennesker fejlagtigt får skylden for deres rolle i en ulykke, som de ikke har bidraget til, hvilket antropologen M.C. Elish beskriver som en "moralsk krøllezone."
Elishs forskning i industrielle og maskinbaserede ulykker tyder på, at mennesker har en tendens til at påtage sig skylden i enhver ulykke, selv om fejlen ligger hos maskinen, algoritmen eller den beslutningstager, der godkendte teknologien i første omgang.
Hun trækker på flere eksempler fra det virkelige liv, såsom en atomulykke på Three Mile Island, Pennsylvania, og styrtet med Air France Flight 447, som i høj grad blev tilskrevet 'menneskelige fejl' snarere end en mere indviklet serie af fejl fordelt på flere personer og systemer.
Elish siger om ansvar i AI-æraen: "Med hensyn til autonome og robotteknologier er regler, love og normer stadig under udformning og kan være særligt modtagelige for usikkerhed eller endda unddragelse af ansvar."
Det rejser også spørgsmål om de demokratiske processers rolle i krigsførelse og den menneskelige beslutningstagnings suverænitet. Da Vietnamkrigen blev vist i stuerne i hele USA, påvirkede den umiddelbare virkning af krigens omkostninger den offentlige mening og politikken.
I modsætning hertil kan AI-støttet kamp fjerne den samfundsmæssige kontrol og balance fra den offentlige mening og den demokratiske diskurs.
Etikeren og filosoffen Thomas Metzinger understreger, at etiske normer ikke kun er juridiske konstruktioner, men også sociale, som udspringer af demokratiske processer.
Hvis algoritmerne træffer beslutningerne, bliver den menneskelige involvering - og dermed det moralske ansvar - diffust og overflødigt.
Internationale juridiske konsekvenser af AI i krigsførelse
En af Genève-konventionens søjler er princippet om "distinktion", som foreskriver, at der skal skelnes mellem kombattanter og civile.
Teknologien har allerede bevist, at den ikke lever op til løfterne om øget beskyttelse af civile, idet kun 10% af dem, der blev dræbt i amerikanske droneangreb under Obamas præsidentskab, var de tilsigtede mål, ifølge lækkede papirer fra The Intercept.
AI-algoritmer er kun så gode som de data, de er trænet på, og de regler, de er programmeret til at følge. Når det gælder krigsførelse, kan en algoritme fejlfortolke data på grund af krigens tåge, fejlbehæftede træningsdata eller bevidst vildledende fjendtlige taktikker.
Den Internationale Røde Kors Komité (ICRC) har startet diskussioner om lovligheden af autonome våbensystemer i henhold til den eksisterende humanitære folkeret, men der er kun få konkrete definitioner.
De fastslår, at de eksisterende rammer er uegnede til de nye udfordringer, som kunstig intelligens stiller, og de ICRC's foreslåede principper er vage; for eksempel: "Uforudsigelige autonome våbensystemer bør udtrykkeligt udelukkes."
Hvor sætter vi grænsen for 'uforudsigelighed', når en lille fejl kan være katastrofal?
Desuden er slagmarken i evig forandring og vil byde på 'edge cases', som er blinde vinkler, der ikke er taget højde for i AI-træning. Det er usædvanligt svært at opbygge AI-systemer, der reagerer på dynamiske miljøforhold med samme reaktionstid som mennesker.
Mens AI-våben kan opretholde nøjagtigheden i typiske slagmarksscenarier, hvad sker der så, når miljøet skifter væk fra, hvad modellen tror er "sandheden på jorden", eller når marginaltilfælde ødelægger dens nøjagtighed?
Erosion af moralsk følsomhed
Det at dræbe i krig har ændret sig meget med fremkomsten af moderne militære strategier og taktikker.
Under Første Verdenskrig blev historiske analyser og beretninger som S.L.A. Marshalls kontroversielle bog "Mænd mod ild" tyder på, at kun 15 til 25% af frontlinjesoldaterne affyrede deres våben med den hensigt at dræbe.
I dag oplever en soldat, der betjener en drone tusindvis af kilometer væk, ikke de umiddelbare følelsesmæssige og psykologiske konsekvenser af sine handlinger, hvilket har vist sig i en generelt lavere forekomst af PTSD og andre psykiske problemer sammenlignet med dem, der gør tjeneste i felten.
Selve designet af militærteknologi har tilpasset sig nye paradigmer for 'fjernkrigsførelse'. De controllere, der bruges til droner, er blevet bemærket for deres lighed med controllere til videospil, et designvalg, der måske ikke er tilfældigt.
AI-operatører kan træffe beslutninger om liv og død i et miljø, der abstraherer krigens realiteter til datapunkter og billeder på en skærm, hvilket afskærer de sidste moralske forbindelser, vi har med livet for dem, der er indblandet i konflikten.
Hvad gør vi nu?
I takt med at militær AI udvikler sig til noget, som mange frygter, bliver ansvaret for fejl og fiaskoer lagt over på en enkelt person, udviklere, organisationer eller hele grupper virker usandsynligt.
Hvem eller hvad skal så bære ansvaret? HHvordan undgår vi at træde ind i en fremtid, hvor drab bliver mere maskinelt end menneskeligt, og hvor etisk ansvar forsvinder i algoritmiske abstraktioner?
Med tiden vil stadig mere intelligente kunstige systemer sandsynligvis forandre etikken og ansvarsfordelingen, især hvis de viser tegn på sansning eller bevidsthed.
Men det tager ikke højde for, hvordan denne situation håndteres i dag, og som så mange andre ting i AI-verdenen er der flere spørgsmål end svar.