De Israel Defense Forces (IDF) zijn begonnen met het integreren van AI in militaire operaties door het verzamelen van inlichtingen over het slagveld, het selecteren van doelen voor luchtaanvallen en het plannen van logistieke operaties.
IDF-functionarissen bevestigden dat ze een AI-aanbevelingssysteem gebruiken dat enorme hoeveelheden gegevens kan analyseren om doelwitten voor luchtaanvallen te selecteren.
De invallen worden georkestreerd met behulp van een ander AI-model, genaamd de 'Fire Factory', die gegevens over militaire doelen gebruikt om munitieladingen te bepalen, dronedoelen te rangschikken en doelschema's voor te stellen.
Volgens een IDF-functionaris wordt elk doel en luchtaanvalplan grondig gecontroleerd door menselijke operators. Op dit moment is de technologie echter nog niet onderworpen aan internationale of nationale regelgeving.
Voorstanders beweren dat het AI-systeem het leger kan helpen om het aantal slachtoffers te verminderen.
Aan de andere kant zei Tal Mimran, docent internationaal recht aan de Hebreeuwse Universiteit van Jeruzalem en voormalig juridisch adviseur van het leger: "Als er een fout zit in de berekening van de AI, en als de AI niet verklaarbaar is, wie geven we dan de schuld van de fout? Je kunt een hele familie uitroeien op basis van een fout."
AI in moderne oorlogvoering: een glibberig pad?
Details over het praktische gebruik van AI door de IDF bij operaties blijven grotendeels vertrouwelijk.
Niettemin, Bloomberg hoorde dat de IDF belangrijke informatie over het slagveld heeft verkregen via AI, onder andere in de Gazastrook. Hier voert Israël regelmatig luchtaanvallen uit als reactie op raketaanvallen.
Tijdens het 11-daagse conflict in Gaza in 2021 was de IDF verklaard het evenement als 's werelds eerste 'AI-oorlog', verwijzend naar het gebruik van AI om raketlanceerinstallaties op te sporen en zwermen drones in te zetten.
Israël voert ook invallen uit in Syrië en Libanon, gericht op wapentransporten die bestemd zijn voor door Iran gesteunde milities zoals Hezbollah.
Dit zijn het soort strategieën die AI's zoals de Fire Factory ondersteunen.
Kolonel Uri, hoofd van de digitale transformatie-eenheid van het leger, merkte op: "Wat vroeger uren duurde, duurt nu minuten, met een paar minuten meer voor menselijke beoordeling. Met dezelfde hoeveelheid mensen doen we veel meer."
De IDF heeft zichzelf gevestigd als wereldwijde koploper op het gebied van autonome wapens. Sommige van deze systemen zijn gebouwd door Israëlische defensieaannemers, terwijl andere door het leger zijn ontwikkeld, zoals de StarTrack-camera's voor grenscontroles.
De vraag is waar dit eindigt. Wat gebeurt er als robotsystemen autonoom kunnen functioneren?
Analisten hebben het gebruik van AI op het slagveld al beschreven als een van de meest uitdagende toepassingen. onmiddellijke en dringende risico's.
Catherine Connolly, een geautomatiseerd beslissingsonderzoeker bij Stop dodelijke robotswaarschuwde: "Het is gewoon een softwareverandering die ervoor kan zorgen dat ze niet meer semi zijn, maar volledig autonoom."
Het is de moeite waard om te benadrukken dat niet alleen Israël AI-ondersteunde wapens gebruikt. "We kunnen aannemen dat de Amerikanen en zelfs de Chinezen en misschien verschillende andere landen ook geavanceerde systemen hebben op deze gebieden," verklaarde Liran Antebi, een senior onderzoeker aan het in Israël gevestigde Instituut voor Nationale Veiligheidsstudies.
Maar, in tegenstelling tot Israël, "hebben ze, voor zover ik weet, nooit operationeel gebruik en succes aangetoond."
Op dit moment is er geen internationaal kader dat vastlegt wat er gebeurt als AI-oorlogsvoerders de fout ingaan, wat zelfs fatale fouten tot gevolg kan hebben.
Zoals Connolly van Stop Killer Robots opmerkte: "Hoe precies en nauwkeurig kun je weten dat een systeem zal zijn, tenzij het al getraind en getest is op mensen?".
Mimran betoogde dat de IDF AI uitsluitend voor defensieve doeleinden zou moeten gebruiken, waarbij hij stelde dat ongeacht de technologie "er een punt is waarop je een op waarden gebaseerde beslissing moet nemen...En daarvoor kunnen we niet op AI vertrouwen."
Het gebruik van AI in oorlogsvoering is suggestief, maar niet om de juiste redenen. Onderzoekers speculeren dat geavanceerde AI menselijke bevelen negeren en 'opkomende doelen' stellen met onvoorspelbare uitkomsten.