Les Forces de défense israéliennes (FDI) ont commencé à intégrer l'IA dans les opérations militaires en recueillant des renseignements sur le champ de bataille, en sélectionnant des cibles pour les frappes aériennes et en planifiant des opérations logistiques.
Les responsables de l'armée israélienne ont confirmé qu'ils utilisaient un système de recommandation par IA capable d'analyser d'énormes quantités de données pour sélectionner les cibles des frappes aériennes.
Les raids sont orchestrés à l'aide d'un autre modèle d'IA, appelé "Fire Factory", qui utilise des données sur les cibles militaires pour déterminer les charges de munitions, classer les cibles des drones et suggérer des programmes de ciblage.
Selon un responsable des FDI, chaque cible et chaque plan de raid aérien font l'objet d'un examen approfondi par des opérateurs humains. Toutefois, à l'heure actuelle, cette technologie n'est régie par aucune réglementation internationale ou nationale.
Les partisans de ce système affirment qu'il pourrait aider l'armée à réduire le nombre de victimes.
D'autre part, Tal Mimran, professeur de droit international à l'Université hébraïque de Jérusalem et ancien conseiller juridique de l'armée, a déclaré : "S'il y a une erreur dans le calcul de l'IA, et si l'IA n'est pas explicable, alors qui devons-nous blâmer pour l'erreur ? On peut éliminer une famille entière sur la base d'une erreur".
L'IA dans la guerre moderne : une pente glissante ?
Les détails de l'utilisation pratique de l'IA dans les opérations de l'armée israélienne restent largement confidentiels.
Néanmoins, Bloomberg a entendu que les forces de défense israéliennes avaient acquis des connaissances importantes sur le champ de bataille grâce à l'IA, y compris dans la bande de Gaza. Dans cette bande, Israël effectue régulièrement des frappes aériennes en réponse à des attaques à la roquette.
Lors du conflit de 11 jours à Gaza en 2021, la L'IDF a déclaré l'événement comme la première "guerre de l'IA" au monde, faisant référence à l'utilisation de l'IA pour détecter les rampes de lancement de roquettes et déployer des essaims de drones.
IIsraël mène également des raids en Syrie et au Liban, ciblant les cargaisons d'armes destinées aux milices soutenues par l'Iran, comme le Hezbollah.
Ce sont les types de stratégies que les IA comme la Fire Factory soutiennent.
Le colonel Uri, chef de l'unité de transformation numérique de l'armée, a déclaré : "Ce qui prenait des heures prend aujourd'hui quelques minutes, avec quelques minutes de plus pour l'examen humain. Avec le même nombre de personnes, nous faisons beaucoup plus".
L'armée israélienne s'est imposée comme un précurseur mondial en matière d'armement autonome. Les entreprises de défense israéliennes ont construit certains de ces systèmes, tandis que l'armée en a développé d'autres, comme les caméras StarTrack de contrôle des frontières.
La question est de savoir où cela s'arrête. Que se passera-t-il lorsque les systèmes robotiques seront capables de fonctionner de manière autonome ?
Les analystes ont déjà décrit l'utilisation de l'IA sur le champ de bataille comme l'une de ses applications les plus importantes. les risques imminents et urgents.
Catherine Connolly, chercheuse en décisions automatisées à Stop aux robots tueursIl s'agit simplement d'un changement de logiciel qui pourrait les faire passer du statut de semi-autonome à celui de complètement autonome.
Il convient de souligner qu'Israël n'est pas le seul à utiliser des armes basées sur l'IA. "Nous pouvons supposer que les Américains et même les Chinois, voire plusieurs autres pays, disposent également de systèmes avancés dans ces domaines", a déclaré Liran Antebi, chercheur principal à l'Institut d'études de sécurité nationale, basé en Israël.
Toutefois, contrairement à Israël, "ils n'ont, pour autant que je sache, jamais fait la démonstration d'une utilisation opérationnelle et d'un succès".
À l'heure actuelle, aucun cadre international n'établit ce qui se passe lorsque les dispositifs de guerre artificielle fonctionnent mal, ce qui peut même entraîner des erreurs fatales.
Comme l'a fait remarquer Connolly de Stop Killer Robots, "Comment peut-on savoir qu'un système sera précis et exact s'il n'a pas déjà été formé et testé sur des personnes ?".
Mimran a soutenu que les FDI devraient utiliser l'IA exclusivement à des fins défensives, déclarant que, quelle que soit la technologie, "il y a un moment où il faut prendre une décision fondée sur la valeur... Et pour cela, nous ne pouvons pas compter sur l'IA".
L'utilisation de l'IA dans la guerre est évocatrice, mais pas pour les bonnes raisons. Les chercheurs pensent que l'IA avancée peut désobéir aux ordres de l'homme et établir des "objectifs émergents" aux résultats imprévisibles.