Moderne slagvelden zijn een broedplaats geworden voor experimentele AI-wapens

3 juli 2024

  • Militaire AI-toepassingen nemen wereldwijd toe ondanks pogingen om ze te stoppen
  • Elke militaire macht is bezorgd om achterop te raken in deze nieuwe wapenwedloop
  • Bewijsmateriaal en observaties van moderne conflicten onthullen de omvang van het risico

Terwijl conflicten woeden in Oekraïne en het Midden-Oosten, is het moderne slagveld een proeftuin geworden voor AI-gestuurde oorlogsvoering.

Van autonome drones tot voorspellende richtalgoritmen: AI-systemen veranderen de aard van gewapende conflicten.

De VS, Oekraïne, Rusland, China, Israël en anderen zijn verwikkeld in een AI-wapenwedloop, waarbij ze allemaal strijden om de technologische suprematie in een geopolitiek landschap dat steeds volatieler wordt.

Naarmate deze nieuwe wapens en tactieken verschijnen, doen ook de gevolgen ervan hun intrede.

We worden nu geconfronteerd met kritieke vragen over de toekomst van oorlogvoering, menselijke controle en de ethiek van het uitbesteden van beslissingen over leven en dood aan machines.

AI heeft mogelijk al militaire escalatie in gang gezet

Terug in 2017, Project Maven is de eerste poging van het Pentagon om AI te integreren in militaire operaties. Het doel is om doelen in realtime te kunnen identificeren en volgen met behulp van dronebeelden zonder menselijke tussenkomst.

Hoewel Project Maven vaak wordt besproken in termen van het analyseren van camerabeelden van drones, reiken de mogelijkheden waarschijnlijk veel verder.

Volgens de non-profit waakhond Het onderzoek van Tech InquiryHet AI-systeem verwerkt ook gegevens van satellieten, radar, sociale media en zelfs buitgemaakte vijandelijke activa. Dit brede scala aan input staat bekend als "all-source intelligence".

In maart 2023 vond er een militair incident plaats toen een Amerikaanse MQ-9 Reaper drone boven de Zwarte Zee in botsing kwam met een Russisch gevechtsvliegtuig, waardoor de drone neerstortte.

Kort voor dat incident bevestigde de National Geospatial-Intelligence Agency (NGA) het gebruik van Project Maven's technologie in Oekraïne.

Luitenant-generaal Christopher T. Donahue, commandant van het XVIII Airborne Corps, later heel duidelijk gesteld over het conflict tussen Oekraïne en Rusland: "Uiteindelijk is dit ons laboratorium geworden."

Bij Project Maven in Oekraïne waren geavanceerde AI-systemen geïntegreerd in de Lynx Synthetic Aperture Radar (SAR) van MQ-9 Reapers. AI kan dus een rol hebben gespeeld bij de botsing met de drone.

Drone
In de ochtend van 14 maart 2023 onderschepte en beschadigde een Russisch Su-27 gevechtsvliegtuig een Amerikaanse MQ-9 Reaper drone, waardoor de drone neerstortte in de Zwarte Zee. Het was de eerste directe confrontatie tussen de Russische en Amerikaanse luchtmacht sinds de Koude Oorlog, een belangrijke escalatie in de militaire spanningen tussen de twee naties. Bron: US Air Force.

In de nasleep ontboden de VS de Russische ambassadeur in Washington om hun bezwaren kenbaar te maken, terwijl het US European Command het incident "onveilig en onprofessioneel" noemde.

Rusland ontkende dat er een botsing had plaatsgevonden. Als reactie daarop verplaatste de VS enkele onbemande vliegtuigen om het gebied in de gaten te houden, waartegen Rusland protesteerde.

Deze situatie bood de dreigende mogelijkheid dat AI-systemen militaire beslissingen zouden beïnvloeden en zelfs zouden bijdragen aan onvoorziene escalaties in militaire conflicten.

Zoals Tech Inquiry vraagt: "Het is de moeite waard om vast te stellen of Project Maven onbedoeld heeft bijgedragen aan een van de meest significante militaire escalaties van onze tijd."

Ethische mijnenvelden

De prestaties van Project Maven zijn tot nu toe grotendeels inconsistent geweest.

Volgens Aangehaalde gegevens Bloomberg door de Onafhankelijke Kyiv"Bij gebruik van verschillende soorten beeldgegevens kunnen soldaten 84% van de tijd een tank correct identificeren, terwijl Project Maven AI dichter bij 60% zit, waarbij het cijfer keldert naar 30% in besneeuwde omstandigheden."

Hoewel de ethische implicaties van het gebruik van AI voor het nemen van beslissingen op leven of dood in oorlogsvoering zeer verontrustend zijn, introduceert het risico op storingen een nog huiveringwekkender aspect in deze technologische wapenwedloop.

Het is niet alleen de vraag of we AI moeten gebruiken om mensen aan te vallen, maar ook of we erop kunnen vertrouwen dat deze systemen functioneren zoals bedoeld in de oorlogsmist.

Wat gebeurt er als burgers in de buurt als doelwit worden bestempeld en autonoom worden vernietigd? En wat als de drone zelf op hol slaat en defect raakt en zich begeeft in omgevingen waar hij niet voor getraind is?

Een AI-fout is in deze context niet slechts een technische storing - het is een potentiële katalysator voor tragedies op een onvoorstelbare schaal. In tegenstelling tot menselijke fouten, die beperkt kunnen zijn in omvang, kan een fout van een AI-systeem binnen enkele seconden leiden tot een wijdverspreid, willekeurig bloedbad.

Er zijn al toezeggingen gedaan om deze ontwikkelingen te vertragen en wapens achter slot en grendel te houden, zoals bleek toen 30 landen aangesloten US relingen over militaire AI-technologie.

Het Amerikaanse Ministerie van Defensie (DoD) heeft ook vijf "ethische principes voor kunstmatige intelligentie" voor militair gebruik, met inbegrip van "DoD-personeel zal de juiste mate van oordeel en zorgvuldigheid in acht nemen, terwijl het verantwoordelijk blijft voor de ontwikkeling, de inzet en het gebruik van AI-mogelijkheden."

Recente ontwikkelingen wijzen echter op een kloof tussen deze principes en de praktijk.

Ten eerste is AI-technologie waarschijnlijk al verantwoordelijk voor ernstige incidenten die buiten het beoogde doel vallen. Ten tweede wordt de generatieve AI-taakgroep van het DoD uitbesteed aan particuliere bedrijven. zoals Palantir, Microsoft en OpenAI

Samenwerking met commerciële entiteiten die niet onder hetzelfde toezicht staan als overheidsinstellingen, doet twijfels rijzen over het vermogen van het DoD om de ontwikkeling van AI te controleren.

Ondertussen heeft het Internationale Comité van het Rode Kruis (ICRC) het initiatief genomen tot discussies over de legaliteit van deze systemenmet name wat betreft de Het "onderscheid"-principe van de Conventie van Genèvedie het maken van onderscheid tussen strijders en burgers voorschrijft. 

AI-algoritmen zijn slechts zo goed als hun trainingsgegevens en geprogrammeerde regels, dus ze kunnen moeite hebben met deze differentiatie, vooral in dynamische en onvoorspelbare omstandigheden op het slagveld.

Zoals blijkt uit het incident met de drones in de Zwarte Zee, zijn deze angsten reëel. Toch blijven militaire leiders wereldwijd enthousiast over AI-oorlogsmachines. 

Nog niet zo lang geleden was een F-16 gevechtsvliegtuig met AI in een testdemonstratie beter in het manoeuvreren dan menselijke piloten.

De Amerikaanse minister van luchtmacht Frank Kendall, die aan den lijve ondervondenvatte de inertie rond militaire AI-technologie als volgt samen: "Het is een veiligheidsrisico om het niet te hebben. Op dit moment moeten we het hebben."

Op het eerste gezicht is dat een grimmige bekentenis.

Ondanks duizenden jaren oorlogvoering en de verwoestende gevolgen ervan, blijft alleen al de gedachte om één stap achter te lopen op 'de vijand' - deze oerangst, misschien wel diep geworteld in onze psyche - de rede overheersen.

AI-wapens van eigen bodem

In Oekraïne zijn jonge bedrijven als Vyriy, Saker en Roboneers actief bezig met de ontwikkeling van technologieën die de dunne scheidslijn tussen menselijke en machinale besluitvorming op het slagveld doen vervagen.

Saker ontwikkelde een autonoom richtsysteem dat doelen tot op 25 mijl afstand kan identificeren en aanvallen, terwijl Roboneers een op afstand bestuurbare mitrailleurkoepel maakte die kan worden bediend met een gamecontroller en een tablet.

In het verslag over deze nieuwe staat van moderne oorlogsvoering op basis van AI wordt de New York Times volgde onlangs Oleksii Babenko, een 25-jarige CEO van dronemaker Vyriy, die de nieuwste creatie van zijn bedrijf liet zien. 

In een levensechte demonstratie reed Babenko voluit op een motor terwijl de drone hem volgde, zonder menselijke controle. De verslaggevers zagen de scène op een laptopscherm. 

De geavanceerde quadrocopter had hem uiteindelijk te pakken, en in de woorden van de verslaggevers: "Als de drone bewapend was geweest met explosieven, en als zijn collega's de autonome tracking niet hadden uitgeschakeld, zou Mr. 

Net als Oekraïne blijkt het Israëlisch-Palestijnse conflict een broeinest voor militair AI-onderzoek.

Experimentele AI-ingebedde of semi-autonome wapens zijn onder andere op afstand bestuurbare quadcopters bewapend met machinegeweren en raketten en de "Jaguar," een semi-autonome robot die wordt gebruikt voor grenspatrouilles.

Het Israëlische leger heeft ook AI-gestuurde geschutskoepels gemaakt die zogenaamde "geautomatiseerde kill-zones" langs de grens met Gaza creëren.

AI-wapens
De autonome aard van de Jaguar wordt verraden door zijn koepel en gemonteerde camera.

Misschien wel het meest verontrustend voor mensenrechtenwaarnemers zijn Israëls geautomatiseerde systemen voor het genereren van doelwitten. "Het Evangelie"is ontworpen om infrastructuurdoelen te identificeren, terwijl "Lavendel" richt zich op het genereren van lijsten met individuele menselijke doelwitten.

Een ander systeem, met de onheilspellende naam "Waar is papa?"wordt naar verluidt gebruikt om verdachte militanten op te sporen wanneer ze bij hun familie zijn.

Het linkse Israëlische nieuwsagentschap +972, dat verslag doet vanuit Tel Aviv, gaf toe dat deze systemen vrijwel zeker hebben geleid tot burgerslachtoffers.

De weg vooruit

Naarmate militaire AI-technologie voortschrijdt, wordt het toewijzen van verantwoordelijkheid voor fouten en mislukkingen een lastige taak - een spiraalvormige morele en ethische leegte waarin we al zijn beland. 

Hoe kunnen we voorkomen dat het doden in de toekomst meer geautomatiseerd dan menselijk is en dat verantwoording verloren gaat in een algoritmische mist?

De huidige gebeurtenissen en retoriek inspireren niet tot voorzichtigheid. 

Doe mee met de toekomst


SCHRIJF JE VANDAAG NOG IN

Duidelijk, beknopt, uitgebreid. Krijg grip op AI-ontwikkelingen met DailyAI

Sam Jeans

Sam is een wetenschap- en technologieschrijver die bij verschillende AI-startups heeft gewerkt. Als hij niet aan het schrijven is, leest hij medische tijdschriften of graaft hij door dozen met vinylplaten.

×

GRATIS PDF EXCLUSIEF
Blijf voorop met DailyAI

Meld je aan voor onze wekelijkse nieuwsbrief en ontvang exclusieve toegang tot DailyAI's nieuwste eBook: 'Mastering AI Tools: Your 2024 Guide to Enhanced Productivity'.

* Door u aan te melden voor onze nieuwsbrief accepteert u onze Privacybeleid en onze Algemene voorwaarden