Moderne slagmarker er blevet en yngleplads for eksperimentelle AI-våben

3. juli 2024

  • Militære AI-anvendelser spredes over hele verden på trods af bestræbelser på at stoppe dem
  • Alle militærmagter er bekymrede for at sakke bagud i dette nye våbenkapløb.
  • Beviser og observationer fra moderne konflikter afslører omfanget af risikoen

Mens konflikterne raser i Ukraine og Mellemøsten, er den moderne slagmark blevet et testområde for AI-drevet krigsførelse.

Fra autonome droner til forudsigelige målretningsalgoritmer er AI-systemer i gang med at omforme væbnede konflikter.

USA, Ukraine, Rusland, Kina, Israel og andre er låst fast i et AI-våbenkapløb, hvor de hver især kæmper om teknologisk overherredømme i et stadig mere ustabilt geopolitisk landskab.

Når disse nye våben og taktikker dukker op, gør deres konsekvenser det også.

Vi står nu over for kritiske spørgsmål om krigsførelsens fremtid, menneskelig kontrol og etikken i at overlade beslutninger om liv og død til maskiner.

AI har måske allerede udløst militær optrapning

Tilbage i 2017, Projekt Maven repræsenterede Pentagons primære indsats for at integrere AI i militære operationer. Formålet er at muliggøre identifikation og sporing af mål i realtid ud fra droneoptagelser uden menneskelig indgriben.

Mens Project Maven ofte diskuteres i forhold til at analysere dronekameraoptagelser, rækker dets muligheder sandsynligvis meget længere.

Ifølge den almennyttige vagthund Tech Inquiry's forskningAI-systemet behandler også data fra satellitter, radar, sociale medier og endda tilfangetagne fjendtlige aktiver. Denne brede vifte af input er kendt som "all-source intelligence".

I marts 2023 skete der en militær hændelse, da en amerikansk MQ-9 Reaper-drone kolliderede med et russisk jagerfly over Sortehavet, hvilket fik dronen til at styrte ned.

Kort før denne hændelse bekræftede National Geospatial-Intelligence Agency (NGA), at Project Maven-teknologien var blevet brugt i Ukraine.

Generalløjtnant Christopher T. Donahue, øverstbefalende for det XVIII luftbårne korps, senere sagde helt klart og tydeligt om Ukraine-Rusland-konflikten: "I sidste ende blev det vores laboratorium."

Projekt Maven i Ukraine involverede avancerede AI-systemer, der var integreret i Lynx Synthetic Aperture Radar (SAR) på MQ-9 Reapers. Som sådan kan AI have været medvirkende til dronekollisionen.

Drone
Om morgenen den 14. marts 2023 opfangede og beskadigede et russisk Su-27-jagerfly en amerikansk MQ-9 Reaper-drone, hvilket resulterede i, at dronen styrtede ned i Sortehavet. Det var den første direkte konfrontation mellem russiske og amerikanske luftstyrker siden den kolde krig, og det var en betydelig optrapning af de militære spændinger mellem de to nationer. Kilde: US Air Force: US Air Force.

Efterfølgende indkaldte USA den russiske ambassadør til Washington for at udtrykke sine indvendinger, mens USA's europæiske kommando kaldte hændelsen "usikker og uprofessionel".

Rusland nægtede, at der var sket en kollision. Som svar flyttede USA nogle ubemandede fly for at overvåge regionen, hvilket Rusland protesterede imod.

Denne situation skabte en truende mulighed for, at AI-systemer kunne påvirke militære beslutninger og endda bidrage til uforudsete optrapninger i militære konflikter.

Som Tech Inquiry spørger: "Det er værd at undersøge, om Project Maven utilsigtet bidrog til en af de mest betydningsfulde militære optrapninger i vores tid."

Etiske minefelter

Projekt Maven har hidtil været meget svingende.

Ifølge Bloomberg-data citeret af Kyiv Independent"Ved brug af forskellige typer billeddata kan soldater identificere en kampvogn korrekt i 84% af tiden, mens Project Maven AI er tættere på 60%, og tallet falder til 30% i snevejr."

Mens de etiske konsekvenser af at bruge AI til at træffe beslutninger om liv eller død i krigsførelse er dybt bekymrende, introducerer risikoen for funktionsfejl et endnu mere skræmmende aspekt af dette teknologiske våbenkapløb.

Det er ikke kun et spørgsmål om, hvorvidt vi skal bruge AI til at angribe mennesker, men også om vi kan stole på, at disse systemer fungerer efter hensigten i krigens tåge.

Hvad sker der, når civile i nærheden udpeges som mål og ødelægges autonomt? Og hvad hvis selve dronen går amok og ikke fungerer, så den bevæger sig ind i miljøer, den ikke er uddannet til at operere i?

AI-fejl i denne sammenhæng er ikke bare en teknisk fejl - det er en potentiel katalysator for en tragedie af ufatteligt omfang. I modsætning til menneskelige fejl, som kan være begrænsede i omfang, kan et AI-systems fejl føre til et udbredt, vilkårligt blodbad i løbet af få sekunder.

Der er allerede givet tilsagn om at bremse denne udvikling og holde våbnene under lås og slå, som det fremgik, da 30 lande sluttede sig til US Gelændere om AI-militærteknologi.

Det amerikanske forsvarsministerium (DoD) udgav også fem "Etiske principper for kunstig intelligens" til militær brug, herunder at "Forsvarsministeriets personale vil udvise passende dømmekraft og forsigtighed, samtidig med at de forbliver ansvarlige for udvikling, implementering og brug af AI-kapaciteter."

Men den seneste udvikling viser, at der er en manglende sammenhæng mellem disse principper og praksis.

For det første er AI-infunderet teknologi sandsynligvis allerede ansvarlig for alvorlige hændelser, der ligger uden for det tilsigtede område. For det andet involverer Forsvarsministeriets generative AI-taskforce outsourcing til private virksomheder. som Palantir, Microsoft og OpenAI

Samarbejde med kommercielle enheder, der ikke er underlagt samme tilsyn som regeringsorganer, sår tvivl om Forsvarsministeriets evne til at kontrollere udviklingen af kunstig intelligens.

I mellemtiden har Den Internationale Røde Kors Komité (ICRC) iværksat diskussioner om lovligheden af disse systemerisær med hensyn til Genève-konventionens princip om "skelnen"som kræver, at der skelnes mellem kombattanter og civile. 

AI-algoritmer er kun så gode som deres træningsdata og programmerede regler, så de kan få problemer med denne differentiering, især under dynamiske og uforudsigelige forhold på slagmarken.

Som det fremgår af dronehændelsen i Sortehavet, er denne frygt reel. Alligevel er militære ledere verden over fortsat optimistiske omkring AI-infunderede krigsmaskiner. 

For ikke så længe siden udmanøvrerede et AI-drevet F-16-jagerfly menneskelige piloter i en testdemo.

Den amerikanske luftvåbenminister Frank Kendall, som oplevede det på første håndopsummerede inertien omkring militær AI-teknologi: "Det er en sikkerhedsrisiko ikke at have det. På dette tidspunkt er vi nødt til at have det."

Umiddelbart er det en dyster indrømmelse.

På trods af årtusinders krigsførelse og dens ødelæggende konsekvenser fortsætter den blotte tanke om at være et skridt bag "fjenden" - denne urangst, som måske er dybt forankret i vores psyke - med at tilsidesætte fornuften.

Hjemmedyrkede AI-våben

I Ukraine er unge virksomheder som Vyriy, Saker og Roboneers i gang med at udvikle teknologier, der udvisker den svage grænse mellem menneskelig og maskinel beslutningstagning på slagmarken.

Saker udviklede et autonomt målsøgningssystem, der kan identificere og angribe mål på op til 25 kilometers afstand, mens Roboneers skabte et fjernstyret maskingeværtårn, der kan betjenes ved hjælp af en spilcontroller og en tablet.

Rapportering om denne nye tilstand af AI-drevet moderne krigsførelse, den New York Times fulgte for nylig Oleksii Babenko, en 25-årig direktør for droneproducenten Vyriy, som fremviste sin virksomheds seneste kreation. 

I en demo fra det virkelige liv kørte Babenko på en motorcykel i fuld fart, mens dronen fulgte ham uden menneskelig kontrol. Journalisterne så scenen udfolde sig på en bærbar skærm. 

Den avancerede quadrocopter fangede ham til sidst, og med journalisternes ord: "Hvis dronen havde været bevæbnet med sprængstoffer, og hvis hans kolleger ikke havde frakoblet den autonome sporing, ville Babenko have været død." 

På samme måde som i Ukraine viser Israel-Palæstina-konflikten sig at være et arnested for militær AI-forskning.

Eksperimentelle AI-indbyggede eller semi-autonome våben omfatter fjernstyrede quadcopters bevæbnet med maskingeværer og missiler og "Jaguar", en semi-autonom robot, der bruges til grænsepatruljering.

Det israelske militær har også skabt AI-drevne tårne, som etablerer, hvad de kalder "automatiserede kill-zones" langs grænsen til Gaza.

AI-våben
Jaguars autonome natur afsløres af dens tårn og det monterede kamera.

Det, der måske bekymrer menneskerettighedsobservatører mest, er Israels automatiserede målgenereringssystemer. "Evangeliet" er designet til at identificere infrastrukturmål, mens "Lavendel" fokuserer på at generere lister over individuelle menneskelige mål.

Et andet system med det ildevarslende navn "Hvor er far?"bruges angiveligt til at spore mistænkte militante, når de er sammen med deres familier.

Det venstreorienterede israelske nyhedsmedie +972, som rapporterede fra Tel Aviv, indrømmede, at disse systemer næsten helt sikkert førte til civile tab.

Vejen frem

Efterhånden som den militære AI-teknologi udvikler sig, bliver det en uløselig opgave at placere ansvaret for fejl og svigt - et spirende moralsk og etisk tomrum, som vi allerede er på vej ind i. 

Hvordan kan vi forhindre en fremtid, hvor drab er mere automatiserede end menneskelige, og hvor ansvarlighed forsvinder i en algoritmisk tåge?

Aktuelle begivenheder og retorik inspirerer ikke til forsigtighed. 

Deltag i fremtiden


TILMELD DIG I DAG

Klar, kortfattet, omfattende. Få styr på AI-udviklingen med DailyAI

Sam Jeans

Sam er videnskabs- og teknologiforfatter og har arbejdet i forskellige AI-startups. Når han ikke skriver, kan han finde på at læse medicinske tidsskrifter eller grave i kasser med vinylplader.

×

GRATIS PDF EKSKLUSIVT
Vær på forkant med DailyAI

Tilmeld dig vores ugentlige nyhedsbrev og få eksklusiv adgang til DailyAI's seneste e-bog: 'Mastering AI Tools: Din 2024-guide til forbedret produktivitet'.

*Ved at tilmelde dig vores nyhedsbrev accepterer du vores Politik for beskyttelse af personlige oplysninger og vores Vilkår og betingelser