Des drones dotés de capacités d'intelligence artificielle identifient et attaquent de manière autonome des cibles en Ukraine.
Selon un rapport du New Scientistil est presque certain que la frappes de drones tuent des soldats russes sans commandement direct ni supervision d'un opérateur humain, bien qu'il n'existe pas de données officielles à ce sujet.
L'acteur principal de ce développement est le quadcopter Saker Scout, qui a récemment été mis en service par l'Ukraine.
Ce drone peut transporter une charge utile de 3 kilogrammes sur une distance d'environ 12 kilomètres. Les drones de cette nature, lorsqu'ils sont commandés à distance, ont fait leurs preuves dans le conflit actuel entre la Russie et l'Ukraine. Ce modèle particulièrement lourd représente une menace même pour les chars d'assaut lourdement blindés.
Saker, une entreprise ukrainienne créée en 2021, visait initialement à offrir des solutions d'IA abordables aux petites entreprises, en particulier des systèmes de vision pilotés par l'IA pour les drones dans des secteurs tels que l'agriculture.
Mais avec l'invasion de la Russie, l'entreprise s'est reconvertie dans le soutien à l'armée. Sa plateforme de vision artificielle reconnaît désormais quelque 64 types différents d'"objets militaires", qui comprennent des véhicules et d'autres matériels, comme l'a indiqué un porte-parole de l'entreprise.
Malgré les capacités autonomes du Saker Scout, il peut également être contrôlé manuellement. En mode manuel, l'IA indique les cibles et les repères et vérifie ce qu'il en est avant de frapper. Le drone est intégré au système ukrainien de distribution de renseignements Delta, qui ingère des données provenant de diverses sources aériennes et satellitaires afin d'obtenir une vue d'ensemble du champ de bataille.
En outre, le drone possède deux fonctions autonomes. Il peut être envoyé dans une région à des fins de reconnaissance ou "être chargé de trouver et d'attaquer des cibles de manière autonome".
Comme le porte-parole l'a indiqué à New Scientist, le Saker Scout a déjà été utilisé en mode autonome, ce qui souligne le déploiement de technologies militaires autonomes sur le champ de bataille, ce que beaucoup redoutent.
Le porte-parole a souligné que l'utilisation autonome du drone n'est pas aussi infaillible que l'intervention d'un opérateur humain, mais que l'IA a prouvé son efficacité et qu'il n'était pas nécessaire d'attendre "qu'elle soit parfaite".
Réfléchissant à l'évolution de la dynamique de la guerre, Mykhailo Fedorov, ministre ukrainien de la transformation numérique, a précédemment déclaré que les armes autonomes représentaient une progression "logique et inévitable" de la technologie des drones.
Commentant l'omniprésence de cette technologie, Paul Scharre, du Center for a New American Security, a déclaré : "Les classificateurs d'images existent depuis au moins dix ans et ce type de logiciel peut être téléchargé facilement et entraîné sur des données appropriées".
Il s'est également inquiété de la propension du drone à mal identifier les cibles, déclarant : "Les systèmes démontrés jusqu'à présent présentent un certain degré de faux positifs, ce qui est normal".
Les autorités du monde entier, y compris les Nations unies, réfléchissent depuis des années à des mesures réglementaires concernant les armes autonomes.
Un rapport des Nations unies datant de 2021 a fait allusion à un possible déploiement de drones d'attaque autonomes en Libye en 2020, mais cette information n'a pas été corroborée. À l'heure actuelle, aucune législation détaillée ne régit l'utilisation des armes autonomes.
Le ministère américain de la défense (DoD) a créé cinq "principes éthiques pour l'intelligence artificielleLe personnel du ministère de la défense fera preuve de discernement et de prudence, tout en restant responsable du développement, du déploiement et de l'utilisation des capacités d'intelligence artificielle.
Si de telles règles traduisent l'intention de contrôler l'armement de l'IA, elles sont extrêmement subjectives en l'absence de définitions solides de termes tels que "niveaux appropriés de jugement et d'attention".
À cet égard, M. Scharre déclare : "Un élément central du débat a été la capacité de ces armes à respecter le droit de la guerre et à éviter les pertes civiles".
Doutes éthiques
Les armes autonomes posent de nombreuses questions éthiques.
Qui est responsable en cas d'erreur ? Que se passe-t-il lorsqu'elles identifient mal des "cibles", ce qui peut entraîner des pertes civiles ? Et, ce qui est peut-être le plus dystopique, que se passe-t-il si les armes d'IA se retournent contre leurs opérateurs ou sont malveillantes ?
Jusqu'à présent, ces technologies sont encore rares et nous disposons de peu de preuves de leur sécurité.
Si le théâtre ouvert de la bataille en Ukraine ne présente qu'un risque minimal pour les civils, ce n'est pas forcément le cas dans un endroit plus encombré, comme la Palestine, par exemple.
Le rôle croissant de l'IA sur le champ de bataille est peut-être inévitable, la technologie promettant des opérations intelligentes, évolutives et rentables qui ne mettent pas en danger le personnel d'un camp.