Les champs de bataille modernes sont devenus un terrain propice à l'expérimentation d'armes d'intelligence artificielle.

3 juillet 2024

  • Les applications militaires de l'IA prolifèrent dans le monde entier malgré les efforts déployés pour y mettre un terme
  • Chaque puissance militaire craint d'être distancée dans cette nouvelle course aux armements
  • Les preuves et les observations tirées des conflits modernes révèlent l'ampleur du risque

Alors que les conflits font rage en Ukraine et au Moyen-Orient, le champ de bataille moderne est devenu un terrain d'essai pour la guerre assistée par ordinateur.

Des drones autonomes aux algorithmes de ciblage prédictif, les systèmes d'IA sont en train de remodeler la nature des conflits armés.

Les États-Unis, l'Ukraine, la Russie, la Chine, Israël et d'autres pays sont engagés dans une course à l'armement en matière d'IA, chacun rivalisant pour la suprématie technologique dans un paysage géopolitique de plus en plus instable.

L'apparition de ces nouvelles armes et tactiques s'accompagne de leurs conséquences.

Nous sommes aujourd'hui confrontés à des questions cruciales concernant l'avenir de la guerre, le contrôle humain et l'éthique de l'externalisation des décisions de vie et de mort à des machines.

L'IA pourrait avoir déjà déclenché une escalade militaire

Retour en 2017, Projet Maven représente le premier effort du Pentagone pour intégrer l'IA dans les opérations militaires. Il vise à permettre l'identification et le suivi en temps réel de cibles à partir de séquences filmées par des drones, sans intervention humaine.

Si le projet Maven est souvent évoqué sous l'angle de l'analyse de séquences filmées par des drones, ses capacités vont sans doute bien au-delà.

Selon l'organisme de surveillance à but non lucratif La recherche de Tech InquiryEn outre, le système d'IA traite également des données provenant de satellites, de radars, de médias sociaux et même de ressources ennemies capturées. Ce large éventail de données est connu sous le nom de "renseignement toutes sources".

En mars 2023, un incident militaire s'est produit lorsqu'un drone américain MQ-9 Reaper est entré en collision avec un avion de chasse russe au-dessus de la mer Noire, provoquant l'écrasement du drone.

Peu avant cet incident, la National Geospatial-Intelligence Agency (NGA) a confirmé l'utilisation de la technologie du projet Maven en Ukraine.

Le lieutenant-général Christopher T. Donahue, commandant du XVIIIe corps aéroporté, plus tard a déclaré sans ambages du conflit entre l'Ukraine et la Russie : "En fin de compte, c'est devenu notre laboratoire".

Le projet Maven en Ukraine impliquait des systèmes d'IA avancés intégrés dans le radar à synthèse d'ouverture (SAR) Lynx des MQ-9 Reapers. L'IA pourrait donc avoir joué un rôle dans la collision entre les drones.

Drone
Le matin du 14 mars 2023, un chasseur russe Su-27 a intercepté et endommagé un drone américain MQ-9 Reaper, qui s'est écrasé dans la mer Noire. Il s'agit de la première confrontation directe entre les forces aériennes russes et américaines depuis la guerre froide, une escalade significative des tensions militaires entre les deux nations. Source : US Air Force.

Dans la foulée, les États-Unis ont convoqué l'ambassadeur russe à Washington pour lui faire part de leurs objections, tandis que le commandement européen des États-Unis a qualifié l'incident de "dangereux et non professionnel".

La Russie a nié toute collision. En réponse, les États-Unis ont repositionné des avions sans pilote pour surveiller la région, ce que la Russie a contesté.

Cette situation présentait la possibilité menaçante que les systèmes d'IA influencent les décisions militaires, voire contribuent à des escalades imprévues dans les conflits militaires.

Comme le demande Tech Inquiry, "il vaut la peine de déterminer si le projet Maven a contribué par inadvertance à l'une des escalades militaires les plus importantes de notre époque".

Champs de mines éthiques

Jusqu'à présent, les performances du projet Maven ont été très irrégulières.

Selon le Données de Bloomberg citées par le Indépendant de KievEn utilisant différents types de données d'imagerie, les soldats peuvent identifier correctement un char dans 84%, tandis que l'IA du projet Maven est plus proche de 60%, ce chiffre chutant à 30% dans des conditions de neige.

Si les implications éthiques de l'utilisation de l'IA pour prendre des décisions de vie ou de mort en temps de guerre sont profondément troublantes, le risque de dysfonctionnement introduit un aspect encore plus effrayant dans cette course à l'armement technologique.

La question n'est pas seulement de savoir si nous devons utiliser l'IA pour cibler des êtres humains, mais aussi de savoir si nous pouvons faire confiance à ces systèmes pour fonctionner comme prévu dans le brouillard de la guerre.

Que se passe-t-il lorsque des civils se trouvant à proximité sont désignés comme cibles et détruits de manière autonome ? Et que se passe-t-il si le drone lui-même se dérègle et fonctionne mal, se déplaçant dans des environnements dans lesquels il n'est pas entraîné à opérer ?

Dans ce contexte, un dysfonctionnement de l'IA n'est pas simplement un problème technique, c'est un catalyseur potentiel de tragédie à une échelle inimaginable. Contrairement aux erreurs humaines, dont la portée peut être limitée, l'erreur d'un système d'IA peut entraîner un carnage généralisé et aveugle en l'espace de quelques secondes.

Des engagements ont déjà été pris pour ralentir ces développements et garder les armes sous clé, comme le montrent les exemples suivants 30 pays ont adhéré US glissières de sécurité sur la technologie militaire de l'IA.

Le ministère américain de la défense (DoD) a également publié cinq "principes éthiques pour l'intelligence artificielle"pour un usage militaire, y compris le fait que "Le personnel du ministère de la défense fera preuve de discernement et de prudence, tout en restant responsable du développement, du déploiement et de l'utilisation des capacités d'IA.

Cependant, des développements récents indiquent un décalage entre ces principes et la pratique.

D'une part, la technologie infusée par l'IA est probablement déjà responsable d'incidents graves en dehors de ses attributions prévues. Deuxièmement, le groupe de travail sur l'IA générative du ministère de la défense implique l'externalisation auprès d'entreprises privées comme Palantir, Microsoft et OpenAI

La collaboration avec des entités commerciales qui ne sont pas soumises à la même surveillance que les agences gouvernementales met en doute la capacité du ministère de la défense à contrôler le développement de l'IA.

Entre-temps, le Comité international de la Croix-Rouge (CICR) a pris l'initiative d'une campagne d'information sur les droits de l'homme. des discussions sur la légalité de ces systèmes, notamment en ce qui concerne les Le principe de "distinction" de la Convention de Genèvequi impose de faire la distinction entre les combattants et les civils. 

Les algorithmes d'IA ne valent que ce que valent leurs données d'entraînement et leurs règles programmées. Ils risquent donc d'avoir du mal à faire cette distinction, en particulier dans des conditions dynamiques et imprévisibles sur le champ de bataille.

Comme l'a montré l'incident du drone de la mer Noire, ces craintes sont réelles. Pourtant, les chefs militaires du monde entier restent optimistes quant aux machines de guerre infusées par l'IA. 

Il n'y a pas si longtemps, un avion de chasse F-16 piloté par l'IA a surpassé des pilotes humains lors d'une démonstration.

Le secrétaire américain à l'armée de l'air, Frank Kendall, qui en a fait l'expérience directea résumé l'inertie qui entoure la technologie militaire de l'IA : "C'est un risque pour la sécurité de ne pas l'avoir. À ce stade, nous devons l'avoir".

À première vue, il s'agit là d'un triste aveu.

Malgré des millénaires de guerre et ses conséquences dévastatrices, la simple pensée d'être un pas derrière "l'ennemi" - cette anxiété primitive, peut-être profondément enracinée dans notre psyché - continue de l'emporter sur la raison.

Armes d'intelligence artificielle de fabrication locale

En Ukraine, de jeunes entreprises comme Vyriy, Saker et Roboneers développent activement des technologies qui brouillent la frontière ténue entre la prise de décision par l'homme et la machine sur le champ de bataille.

Saker a mis au point un système de ciblage autonome permettant d'identifier et d'attaquer des cibles à une distance de 25 miles, tandis que Roboneers a créé une tourelle de mitrailleuse télécommandée qui peut être utilisée à l'aide d'une manette de jeu et d'une tablette.

Pour en savoir plus sur ce nouvel état de la guerre moderne alimentée par l'IA, la New York Times a récemment suivi Oleksii Babenko, 25 ans, PDG du fabricant de drones Vyriy, qui a présenté la dernière création de son entreprise. 

Lors d'une démonstration en conditions réelles, M. Babenko a roulé à fond sur une moto pendant que le drone le suivait, sans contrôle humain. Les journalistes ont regardé la scène se dérouler sur un écran d'ordinateur portable. 

Le quadrocoptère perfectionné a fini par le rattraper et, selon les journalistes, "si le drone avait été armé d'explosifs et si ses collègues n'avaient pas débrayé le système de suivi autonome, M. Babenko aurait été fichu". 

Comme en Ukraine, le conflit israélo-palestinien s'avère être un foyer de recherche en matière d'IA militaire.

Parmi les armes expérimentales intégrées à l'IA ou semi-autonomes, on peut citer les quadcopters télécommandés armés de mitrailleuses et de missiles, ainsi que le "...Jaguarun robot semi-autonome utilisé pour les patrouilles frontalières.

L'armée israélienne a également créé des tourelles alimentées par l'IA qui établissent ce qu'elle appelle des "zones d'abattage automatisées" le long de la frontière de Gaza.

Armes IA
La nature autonome de Jaguar est révélée par sa tourelle et la caméra montée.

Ce qui inquiète peut-être le plus les observateurs des droits de l'homme, ce sont les systèmes automatisés de génération de cibles d'Israël. "L'Évangile"est conçu pour identifier les cibles en matière d'infrastructures, tandis que "Lavande"se concentre sur la génération de listes de cibles humaines individuelles.

Un autre système, au nom inquiétant de "Où est papa ?"Il serait utilisé pour suivre les militants présumés lorsqu'ils sont avec leur famille.

Le média israélien de gauche +972, en direct de Tel Aviv, a admis que ces systèmes ont presque certainement fait des victimes civiles.

La voie à suivre

Au fur et à mesure que la technologie de l'IA militaire progresse, l'attribution de la responsabilité des erreurs et des échecs devient une tâche insurmontable - un vide moral et éthique en spirale dans lequel nous sommes déjà entrés. 

Comment pouvons-nous éviter un avenir où les meurtres sont plus automatisés qu'humains et où la responsabilité se perd dans un brouillard algorithmique ?

L'actualité et la rhétorique n'incitent pas à la prudence. 

Rejoindre l'avenir


SOUSCRIRE AUJOURD'HUI

Clair, concis, complet. Maîtrisez les développements de l'IA avec DailyAI

Sam Jeans

Sam est un rédacteur scientifique et technologique qui a travaillé dans diverses start-ups spécialisées dans l'IA. Lorsqu'il n'écrit pas, on peut le trouver en train de lire des revues médicales ou de fouiller dans des boîtes de disques vinyles.

×

PDF GRATUIT EXCLUSIF
Gardez une longueur d'avance avec DailyAI

Inscrivez-vous à notre newsletter hebdomadaire et recevez un accès exclusif au dernier eBook de DailyAI : 'Mastering AI Tools : Your 2024 Guide to Enhanced Productivity" (Maîtriser les outils de l'IA : votre guide 2024 pour une meilleure productivité).

*En vous abonnant à notre lettre d'information, vous acceptez nos conditions d'utilisation. Politique de confidentialité et notre Conditions générales d'utilisation