Drones met AI-capaciteiten identificeren nu autonoom doelen in Oekraïne en vallen ze aan.
Volgens een verslag van de New Scientistis het bijna zeker dat de drone-aanvallen Russische soldaten doden zonder direct bevel of toezicht van een menselijke operator, hoewel officiële gegevens ontbreken.
De belangrijkste speler in deze ontwikkeling is de Saker Scout quadcopter, die onlangs in dienst werd gesteld in Oekraïne.
Deze drone kan een lading van 3 kilo over een afstand van ongeveer 12 kilometer vervoeren. Dergelijke drones, die op afstand worden bediend, hebben hun waarde bewezen in het lopende conflict tussen Rusland en Oekraïne. Dit zwaargewicht model vormt zelfs een bedreiging voor zwaar gepantserde tanks.
Saker, een Oekraïens bedrijf dat in 2021 werd opgericht, wilde aanvankelijk betaalbare AI-oplossingen bieden aan kleine bedrijven, met name AI-gestuurde vision-systemen voor drones in sectoren zoals de landbouw.
Maar met de invasie van Rusland is het bedrijf overgestapt op ondersteuning van het leger. Hun AI vision platform herkent nu zo'n 64 verschillende soorten 'militaire objecten', waaronder voertuigen en andere hardware, zoals een woordvoerder van het bedrijf liet weten.
Ondanks de autonome mogelijkheden van de Saker Scout, kan hij ook handmatig worden bestuurd. In de handmatige modus geeft de AI doelen aan en verifieert hij wat het is voordat hij toeslaat. De drone is geïntegreerd in het Delta-inlichtingendistributiesysteem van Oekraïne, dat gegevens van verschillende lucht- en satellietbronnen opneemt om een holistisch beeld van het slagveld te construeren.
Verder heeft de drone dubbele autonome functionaliteiten. Hij kan naar een gebied worden gestuurd voor verkenning of "de opdracht krijgen om zelfstandig doelen te vinden en aan te vallen".
Zoals de woordvoerder aan New Scientist liet weten, heeft de Saker Scout al actie gezien in autonome modus, wat de inzet van autonome militaire technologie op het slagveld onderstreept - iets waar velen bang voor zijn.
De woordvoerder benadrukte dat het autonoom inzetten van de drone niet zo waterdicht is als wanneer er een menselijke operator bij betrokken is, maar dat de AI zijn effectiviteit heeft bewezen en dat het niet nodig was om te wachten tot 'het perfect was'.
Mykhailo Fedorov, de Oekraïense minister voor Digitale Transformatie, zei eerder over de veranderende dynamiek van oorlogsvoering dat autonome wapens een "logische en onvermijdelijke" vooruitgang zijn in de drone-technologie.
Over de alomtegenwoordigheid van deze technologie zei Paul Scharre van het Center for a New American Security: "Beeldclassificeerders bestaan al minstens 10 jaar en dit soort software kan eenvoudig worden gedownload en getraind op geschikte gegevens."
Hij uitte verder zijn bezorgdheid over de neiging van de drone om doelen verkeerd te identificeren en zei: "De tot nu toe gedemonstreerde systemen hebben een zekere mate van fout-positieven, wat te verwachten is."
Autoriteiten over de hele wereld, waaronder de VN, beraden zich al jaren over regulerende maatregelen met betrekking tot autonome wapens.
Een VN-rapport uit 2021 zinspeelde op de mogelijke inzet van autonome aanvalsdrones in Libië in 2020, maar dit blijft ongefundeerd. Momenteel is er geen gedetailleerde wetgeving die het gebruik van autonome wapens regelt.
Het Amerikaanse ministerie van Defensie (DoD) heeft vijf "ethische principes voor kunstmatige intelligentiemet inbegrip van "verantwoordelijk", gedefinieerd als "DoD-personeel zal de juiste beoordelings- en zorgniveaus hanteren en tegelijkertijd verantwoordelijk blijven voor de ontwikkeling, de inzet en het gebruik van AI-mogelijkheden".
Hoewel dit soort regels de intentie uitdrukken om AI-wapens onder controle te houden, zijn ze zonder robuuste definities van termen als 'gepaste niveaus van beoordelingsvermogen en zorgvuldigheid' extreem subjectief.
Daarover zegt Scharre: "Een centraal punt in het debat is het vermogen van dergelijke wapens om aan het oorlogsrecht te voldoen en burgerslachtoffers te voorkomen."
Ethische dilemma's
Autonome wapens stellen talrijke ethische kwesties.
Wie is er verantwoordelijk als het fout gaat? Wat gebeurt er als ze 'doelen' verkeerd identificeren, wat kan leiden tot burgerslachtoffers? En misschien wel het meest dystopische: wat gebeurt er als AI-wapens zich tegen hun operators keren of op hol slaan?
Tot nu toe zijn deze technologieën nog zeldzaam en hebben we beperkt bewijs van hun veiligheid.
Terwijl het open strijdtoneel in Oekraïne een minimaal burgerrisico met zich meebrengt, is dat ergens anders misschien niet het geval, bijvoorbeeld in Palestina.
De toenemende rol van AI op het slagveld is misschien onvermijdelijk, omdat de technologie intelligente, schaalbare en kosteneffectieve operaties belooft die geen gevaar opleveren voor het personeel van de ene partij.