Moderna slagfält har blivit en grogrund för experimentella AI-vapen

3 juli 2024

  • Militära AI-tillämpningar sprider sig över hela världen trots ansträngningar att stoppa dem
  • Varje militärmakt är orolig för att hamna på efterkälken i denna nya kapprustning
  • Bevis och observationer från moderna konflikter visar hur stor risken är

I takt med att konflikter rasar i Ukraina och Mellanöstern har det moderna slagfältet blivit en testplats för AI-driven krigföring.

AI-system, från autonoma drönare till prediktiva målinriktningsalgoritmer, håller på att omforma väpnade konflikter.

USA, Ukraina, Ryssland, Kina, Israel och andra är fastlåsta i en AI-vapenkapplöpning, där alla tävlar om teknisk överlägsenhet i ett alltmer instabilt geopolitiskt landskap.

I takt med att dessa nya vapen och taktiker dyker upp ökar också deras konsekvenser.

Vi står nu inför kritiska frågor om krigföringens framtid, mänsklig kontroll och etiken i att lägga ut beslut om liv och död på maskiner.

AI kan redan ha utlöst militär upptrappning

Tillbaka till 2017, Projekt Maven representerade Pentagons främsta insats för att integrera AI i militära operationer. Syftet är att möjliggöra identifiering och spårning av mål i realtid från drönarbilder utan mänsklig inblandning.

Även om Project Maven ofta diskuteras i termer av att analysera bilder från drönarkameror, sträcker sig dess möjligheter sannolikt mycket längre.

Enligt den icke-vinstdrivande vakthunden Tech Inquiry's forskningMen AI-systemet bearbetar även data från satelliter, radar, sociala medier och till och med tillfångatagna fientliga tillgångar. Detta breda spektrum av ingångar kallas "allkällsinformation".

I mars 2023 inträffade en militär incident när en amerikansk drönare av typen MQ-9 Reaper kolliderade med ett ryskt stridsflygplan över Svarta havet, vilket ledde till att drönaren kraschade.

Strax före den incidenten bekräftade National Geospatial-Intelligence Agency (NGA) att Project Mavens teknik använts i Ukraina.

Generallöjtnant Christopher T. Donahue, befälhavare för XVIII luftburna kåren, senare sade helt klart och tydligt om konflikten mellan Ukraina och Ryssland: "I slutändan blev det här vårt laboratorium."

Projekt Maven i Ukraina omfattade avancerade AI-system som integrerades i Lynx Synthetic Aperture Radar (SAR) på MQ-9 Reapers. AI kan därför ha varit en bidragande orsak till drönarkollisionen.

Drönare
På morgonen den 14 mars 2023 fångade ett ryskt Su-27 stridsflygplan upp och skadade en amerikansk MQ-9 Reaper drönare, vilket resulterade i att drönaren kraschade i Svarta havet. Det var den första direkta konfrontationen mellan ryska och amerikanska flygvapen sedan kalla kriget, en betydande upptrappning av de militära spänningarna mellan de två nationerna. Källa: US Air Force: US Air Force.

I efterdyningarna kallade USA upp den ryske ambassadören till Washington för att uttrycka sina invändningar, medan USA:s europeiska kommando kallade händelsen "osäker och oprofessionell".

Ryssland förnekade att någon kollision skulle ha ägt rum. Som svar på detta flyttade USA några obemannade flygplan för att övervaka regionen, vilket Ryssland protesterade mot.

Denna situation innebar en hotfull möjlighet att AI-system skulle kunna påverka militära beslut och till och med bidra till oförutsedda upptrappningar av militära konflikter.

Som Tech Inquiry frågar: "Det är värt att avgöra om Project Maven oavsiktligt bidrog till en av de mest betydande militära upptrappningarna i vår tid."

Etiska minfält

Project Mavens prestanda har hittills varit mycket ojämn.

Enligt uppgift från Bloomberg-uppgifter citerade av Kyiv Independent"När man använder olika typer av bilddata kan soldater korrekt identifiera en tank 84% av tiden, medan Project Maven AI är närmare 60%, med siffran som sjunker till 30% under snöiga förhållanden."

De etiska konsekvenserna av att använda AI för att fatta beslut om liv eller död i krigföring är djupt oroande, men risken för funktionsfel innebär en ännu mer skrämmande aspekt av denna tekniska kapprustning.

Det är inte bara en fråga om huruvida vi ska använda AI för att rikta in oss på människor, utan om vi kan lita på att dessa system fungerar som avsett i krigsdimman.

Vad händer när civila i närheten märks ut som mål och förstörs autonomt? Och vad händer om drönaren själv får fnatt och inte fungerar som den ska och färdas in i miljöer som den inte är utbildad för att operera i?

Ett AI-fel i det här sammanhanget är inte bara ett tekniskt fel - det är en potentiell katalysator för tragedier i en ofattbar skala. Till skillnad från mänskliga fel, som kan vara begränsade i omfattning, kan ett AI-systems misstag leda till omfattande, urskillningslöst blodbad på bara några sekunder.

Åtaganden för att bromsa denna utveckling och hålla vapnen under lås och bom har redan gjorts, vilket framgår av följande 30 länder anslöt sig US skyddsräcken om militär AI-teknik.

USA:s försvarsdepartement (DoD) släppte också fem "etiska principer för artificiell intelligens" för militärt bruk, inklusive att "DoD-personal kommer att utöva lämpliga nivåer av omdöme och försiktighet, samtidigt som de förblir ansvariga för utveckling, utplacering och användning av AI-funktioner."

Den senaste tidens utveckling tyder dock på att det finns en koppling mellan dessa principer och praktiken.

För det första är AI-infunderad teknik sannolikt redan ansvarig för allvarliga incidenter utanför dess avsedda ansvarsområde. För det andra innebär DoD:s arbetsgrupp för generativ AI outsourcing till privata företag som Palantir, Microsoft och OpenAI

Samarbete med kommersiella enheter som inte är föremål för samma tillsyn som statliga myndigheter ifrågasätter DoD:s förmåga att kontrollera AI-utvecklingen.

Under tiden har Internationella rödakorskommittén (ICRC) inlett diskussioner om lagligheten hos dessa system, särskilt när det gäller Genèvekonventionens princip om "åtskillnad"som föreskriver att man ska göra åtskillnad mellan stridande och civila. 

AI-algoritmer är bara så bra som deras träningsdata och programmerade regler, så de kan få problem med denna differentiering, särskilt under dynamiska och oförutsägbara förhållanden på slagfältet.

Som framgår av drönarincidenten i Svarta havet är dessa farhågor verkliga. Ändå är militära ledare världen över fortsatt positiva till AI-infunderade krigsmaskiner. 

För inte så länge sedan utmanövrerade ett AI-drivet F-16-stridsflygplan mänskliga piloter i en testdemo.

USA:s flygvapenminister Frank Kendall, som upplevt det på nära hållsammanfattade trögheten kring militär AI-teknik: "Det är en säkerhetsrisk att inte ha det. Vid det här laget måste vi ha det."

Vid första anblicken är det ett dystert medgivande.

Trots årtusenden av krigföring och dess förödande konsekvenser fortsätter blotta tanken på att vara ett steg bakom "fienden" - denna primala ångest, kanske djupt rotad i vårt psyke - att övertrumfa förnuftet.

Hemmagjorda AI-vapen

I Ukraina arbetar unga företag som Vyriy, Saker och Roboneers aktivt med att utveckla teknik som suddar ut den hårfina gränsen mellan mänskligt och maskinellt beslutsfattande på slagfältet.

Saker utvecklade ett autonomt målsökningssystem som kan identifiera och attackera mål på upp till 25 mils avstånd, medan Roboneers skapade ett fjärrstyrt maskingevärstorn som kan styras med hjälp av en spelkontroll och en surfplatta.

Rapportering om detta nya tillstånd av AI-driven modern krigföring, den New York Times följde nyligen Oleksii Babenko, en 25-årig VD för drönartillverkaren Vyriy, som visade upp sitt företags senaste skapelse. 

I en verklig demonstration körde Babenko en motorcykel i full fart medan drönaren följde honom, utan mänsklig kontroll. Reportrarna såg scenen utspela sig på en laptopskärm. 

Den avancerade quadrocoptern fångade honom till slut, och med reporterns ord: "Om drönaren hade varit beväpnad med sprängämnen, och om hans kollegor inte hade kopplat bort den autonoma spårningen, skulle Babenko ha varit död." 

På samma sätt som i Ukraina har Israel-Palestina-konflikten visat sig vara en grogrund för militär AI-forskning.

Experimentella AI-inbäddade eller halvautonoma vapen inkluderar fjärrstyrda quadcopters beväpnade med maskingevär och missiler och "Jaguar", en halvautonom robot som används för gränsövervakning.

Den israeliska militären har också skapat AI-drivna torn som upprättar vad de kallar "automatiserade dödszoner" längs gränsen till Gaza.

AI-vapen
Jaguars autonoma karaktär avslöjas av tornet och den monterade kameran.

Det kanske mest oroande för människorättsobservatörer är Israels automatiska målgenereringssystem. "Evangeliet" är utformad för att identifiera infrastrukturmål, medan "Lavendel" fokuserar på att generera listor över enskilda mänskliga mål.

Ett annat system, med det olycksbådande namnet "Var är pappa?"används enligt uppgift för att spåra misstänkta militärer när de är tillsammans med sina familjer.

Det vänsterorienterade israeliska nyhetsbyrån +972, som rapporterar från Tel Aviv, medgav att dessa system nästan säkert ledde till civila dödsoffer.

Vägen framåt

I takt med att den militära AI-tekniken utvecklas blir det en svårlöst uppgift att fördela ansvaret för misstag och misslyckanden - en moralisk och etisk spiral som vi redan befinner oss i. 

Hur kan vi förhindra en framtid där dödandet är mer automatiserat än mänskligt och där ansvarsskyldigheten försvinner i en algoritmisk dimma?

Aktuella händelser och retorik manar inte till försiktighet. 

Bli en del av framtiden


PRENUMERERA IDAG

Tydlig, kortfattad och heltäckande. Få grepp om AI-utvecklingen med DagligaAI

Sam Jeans

Sam är en vetenskaps- och teknikskribent som har arbetat i olika AI-startups. När han inte skriver läser han medicinska tidskrifter eller gräver igenom lådor med vinylskivor.

×

GRATIS PDF EXKLUSIV
Ligg steget före med DailyAI

Registrera dig för vårt veckovisa nyhetsbrev och få exklusiv tillgång till DailyAI:s senaste e-bok: "Mastering AI Tools: Din 2024-guide till förbättrad produktivitet".

*Genom att prenumerera på vårt nyhetsbrev accepterar du vår Integritetspolicy och våra Villkor och anvisningar