I en verden der "krigsspill" ikke lenger bare refererer til brettspill eller videospill, men til scenarier på liv og død tilrettelagt av maskinell intelligens, er spørsmålet om ansvar monumentalt.
Militæret øker forskningen og investeringene i kunstig intelligens.
Noen analytikere definerte et 11 dager langt møte mellom Israel og Palestina i 2021 som det første "AI-krig", der israelsk teknologi bisto med etterretning og utplassering på slagmarken.
De siste månedene tet amerikanske militæret etablerte en arbeidsgruppe for generativ AI og vellykket testet en autonomt AI-drevet jetfly.
AIs økende rolle i krigføring byr på en rekke komplekse juridiske og etiske dilemmaer som vi ennå ikke har funnet svar på, til tross for at AI-drevet militærteknologi tas i bruk akkurat nå.
Hvem har ansvaret når AI går galt?
Militærteknologiprodusenten Rafaels "Fire Weaver" lokaliserer fiendens posisjoner ved hjelp av sensorer og foreslår den best plasserte enheten til å skyte mot dem.
Produktbeskrivelsen sier: "Fire Weaver beregner engasjementsreglene og styrer siktet og avfyringen ved å bruke den mest hensiktsmessige skytteren for hvert mål."
"Beregner" er det avgjørende ordet her - og AI-våpen kan redusere beslutningen om å ødelegge et mål til en binær ja/nei-avgjørelse, så hva om Fire Weaver forveksler et barn med en fiendtlig soldat? Eller en lastebil med humanitær hjelp i stedet for et fiendtlig kjøretøy?
For øyeblikket er mangelen på moralsk, etisk og juridisk klarhet skrikende. Kunstig intelligens befinner seg i et juridisk og etisk vakuum, og slik kan det komme til å være i lang tid fremover, ettersom lovgivningen er notorisk treg - og sjelden møter en teknologi som utvikler seg så raskt.
I samfunnet generelt finnes det allerede mange eksempler på at kunstig intelligens går på bekostning av mennesker og deres rettigheter. Disse eksemplene gir et glimt av det tomrommet i lovgivning og etikk som kunstig intelligens og dens ulike bruksområder har skapt.
For eksempel, ChatGPT påstått ble en mann fra Georgia, Mark Walters, funnet skyldig i underslag og anklaget jusprofessor Jonathan Turley for seksuelle overgrep. ChatGPT var falsk i begge sakene.
På samme måte har Getty Images og flere kunstnere, forfattere og andre kreatører lansert søksmål om opphavsrett mot teknologiselskaper for å bruke treningsdata til å bygge modellene sine.
Opplæringsdata samles ofte inn fra tredjeparter, som Common Crawl, og "skyggebiblioteker" som Bibliotik, som ligner på torrentsider som PirateBay.
Hvem er i så fall ansvarlig for brudd på opphavsretten? AI-utviklerne eller datasettutgiverne? Det er en tegneserieaktig ansvarssirkel der hver potensielt skyldig part peker på dem ved siden av seg, og til slutt slipper alle unna skylden.
Dette uklare etiske landskapet er langt mer risikofylt i forbindelse med AI-våpen og algoritmiske militære taktikker, der en modells beregninger bokstavelig talt kan avgjøre liv eller død.
Militære organisasjoner er allerede klar over paradigmeskiftet som AI-våpen innebærer. Ifølge Department of Defense (DoD) er den første av de fem "etiske prinsipper for kunstig intelligens" for militær bruk er "Ansvarlig", definert som "DoD-personell vil utvise passende grad av dømmekraft og forsiktighet, samtidig som de forblir ansvarlige for utvikling, utplassering og bruk av AI-kapasiteter."
Det betyr at et menneske til syvende og sist må være ansvarlig for maskinens handlinger. Militæret har alltid basert seg på prinsippet om at noen - typisk sjefen eller en soldat - må holdes ansvarlig for handlinger som utføres under krigføring. Likevel blir AIs rolle i beslutningsprosessen stadig mer uklar.
Det første spørsmålet er om det å trykke på "Godkjenn"-knappen er ensbetydende med skyld når AI får mer sofistikerte roller innen målretting, overvåking og andre områder.
Hvis AIs spådommer skulle slå feil, for eksempel med sivile dødsfall som resultat, er det tvilsomt om noen ville akseptere at "maskinen" fikk hele skylden for en ulykke.
På sin side kan det oppstå situasjoner der mennesker urettmessig får skylden for sin rolle i en ulykke som de ikke har bidratt til, noe antropologen M.C. Elish beskriver som en "moralsk krøllesone."
Elishs forskning på industri- og maskinulykker tyder på at mennesker har en tendens til å ta på seg skylden i enhver ulykke, selv om feilen ligger hos maskinen, algoritmen eller beslutningstakeren som godkjente teknologien i første omgang.
Hun trekker frem flere eksempler fra virkeligheten, som atomulykken på Three Mile Island i Pennsylvania og styrten med Air France Flight 447, som i stor grad ble tilskrevet "menneskelig svikt" snarere enn en mer intrikat serie av feil fordelt på flere individer og systemer.
Elish sier om ansvar i AI-æraen: "Når det gjelder autonome teknologier og robotteknologier, er regelverket, lovene og normene fortsatt under utforming, og de kan være spesielt utsatt for usikkerhet eller til og med ansvarsfraskrivelse."
Dette reiser også spørsmål om demokratiske prosessers rolle i krigføring og om menneskers suverenitet i beslutningsprosesser. Da Vietnamkrigen ble vist i amerikanske stuer, fikk krigens umiddelbare konsekvenser for opinionen og politikken.
AI-støttet kamp kan derimot fjerne samfunnets kontroll og balanse fra folkemeningen og den demokratiske diskursen.
Etikkforskeren og filosofen Thomas Metzinger understreker at etiske normer ikke bare er juridiske konstruksjoner, men også sosiale normer som springer ut av demokratiske prosesser.
Hvis algoritmene tar avgjørelsene, blir menneskelig engasjement - og dermed moralsk ansvar - diffust og overflødig.
Internasjonale juridiske konsekvenser av kunstig intelligens i krigføring
En av Genève-konvensjonens grunnpilarer er prinsippet om "distinksjon", som innebærer at det skal skilles mellom stridende og sivile.
Teknologien har allerede vist seg å ikke innfri løftene om økt beskyttelse av sivile, og bare 10% av de som ble drept i amerikanske droneangrep under Obamas presidentperiode var de tiltenkte målene, ifølge lekkede papirer fra The Intercept.
AI-algoritmer er bare så gode som dataene de er trent på, og reglene de er programmert til å følge. Når det gjelder krigføring, kan en algoritme feiltolke data på grunn av krigens tåke, mangelfulle treningsdata eller bevisst villedende fiendtlig taktikk.
Den internasjonale Røde Kors-komiteen (ICRC) har startet diskusjoner om lovligheten av autonome våpensystemer i henhold til eksisterende internasjonal humanitærrett, men det finnes få konkrete definisjoner.
De fastslår at eksisterende rammeverk er dårlig egnet for de nye utfordringene som kunstig intelligens stiller oss overfor, og de ICRCs forslag til prinsipper er vage, for eksempel: "Uforutsigbare autonome våpensystemer bør uttrykkelig utelukkes."
Hvor går grensen for "uforutsigbar" når en ørliten feil kan få katastrofale følger?
Dessuten er slagmarken i stadig endring og vil by på "edge cases", det vil si blindsoner som det ikke er tatt høyde for i AI-opplæringen. Det er svært vanskelig å bygge AI-systemer som reagerer på dynamiske miljøforhold med samme reaksjonstid som mennesker.
Selv om AI-våpen kan opprettholde nøyaktigheten i typiske scenarier på slagmarken, hva skjer når omgivelsene avviker fra det modellen tror er "sannheten på bakken", eller når "edge cases" forstyrrer nøyaktigheten?
Erosjon av moralsk sensitivitet
Det å drepe i krig har endret seg betraktelig med fremveksten av moderne militære strategier og taktikker.
Under første verdenskrig ble historiske analyser og beretninger som S.L.A. Marshalls kontroversielle bok "Menn mot ilden" tyder på at bare 15 til 25% av frontsoldatene avfyrte sine våpen i den hensikt å drepe.
I dag opplever ikke en soldat som opererer en drone tusenvis av kilometer unna, de umiddelbare emosjonelle og psykologiske konsekvensene av handlingene sine, noe som har vist seg i form av en generelt lavere forekomst av PTSD og andre psykiske problemer sammenlignet med dem som tjenestegjør i felt.
Selve utformingen av militær teknologi har tilpasset seg nye paradigmer for "fjernkrigføring". Kontrollene som brukes til droner, har blitt lagt merke til for sin likhet med videospillkontrollere, et designvalg som kanskje ikke er tilfeldig.
AI-operatører kan ta avgjørelser om liv og død i et miljø som abstraherer krigens realiteter til datapunkter og bilder på en skjerm, noe som de siste moralske forbindelsene vi har med livene til dem som er involvert i konflikten.
Hva gjør vi nå?
Militær AI utvikler seg til noe mange frykter, og ansvaret for feil og fiaskoer legges på en enkelt person, utviklere, organisasjoner eller hele grupper virker usannsynlig.
Hvem, eller hva, er det da som sitter igjen med ansvaret? HHvordan kan vi unngå å gå inn i en fremtid der drap blir mer maskinelt enn menneskelig, og der etisk ansvar forsvinner i algoritmiske abstraksjoner?
Med tiden vil stadig mer intelligente kunstige systemer sannsynligvis forandre etikken og ansvarsforholdene, særlig hvis de viser tegn på følelser eller bevissthet.
Men det tar ikke hensyn til hvordan denne situasjonen håndteres i dag, og som så mye annet i AI-verdenen er det flere spørsmål enn svar.