L'IA sur le champ de bataille : qui est responsable en cas de problème ?

27 août 2023

Crimes de guerre

Dans un monde où les "jeux de guerre" ne se réfèrent plus seulement à des jeux de société ou à des jeux vidéo, mais à des scénarios de vie ou de mort facilités par l'intelligence des machines, la question de la responsabilité est monumentale.

Les armées intensifient leurs recherches et leurs investissements dans l'IA.

Certains analystes ont défini la rencontre israélo-palestinienne de 11 jours en 2021 comme la première "Guerre de l'IAoù les technologies israéliennes ont contribué au renseignement et au déploiement sur le champ de bataille.

Ces derniers mois, tL'armée américaine a mis en place un Groupe de travail sur l'IA générative et a testé avec succès un jet autonome propulsé par l'IA.

Le rôle croissant de l'IA dans la guerre présente une série de dilemmes juridiques et éthiques complexes auxquels nous n'avons pas encore répondu, même si des technologies militaires alimentées par l'IA sont déployées en ce moment même.

Qui est responsable en cas d'échec de l'IA ?

Le fabricant de technologies militaires Rafael "Tisseur de feu"Il localise les positions ennemies à l'aide de capteurs et suggère l'unité la mieux placée pour leur tirer dessus. 

La description du produit indique que "Fire Weaver calcule les règles d'engagement et dirige le ciblage et le tir, en utilisant le tireur le plus approprié pour chaque cible acquise".

"Calcule" est le mot clé ici - L'armement IA peut réduire la décision de détruire une cible à une décision binaire oui/non, mais que se passe-t-il si Fire Weaver confond un enfant avec un soldat ennemi ? Ou un camion d'aide humanitaire au lieu d'un véhicule ennemi ?

Actuellement, le manque de clarté morale, éthique et juridique est flagrant. L'IA occupe un vide juridique et éthique, qui pourrait perdurer un certain temps, car le processus législatif est notoirement lent - et il est rare qu'il soit confronté à une technologie qui évolue aussi rapidement. 

Dans la société en général, il existe déjà de nombreux exemples où l'IA compromet les personnes et leurs droits. Ces exemples donnent un aperçu du vide législatif et éthique creusé par l'IA et ses diverses utilisations. 

Par exemple, ChatGPT allégué un Géorgien, Mark Walters, a été reconnu coupable de détournement de fonds et a accusé le professeur de droit Jonathan Turley d'agression sexuelle. ChatGPT s'est avéré faux dans les deux cas.

De même, Getty Images et plusieurs artistes, auteurs et autres créateurs ont lancé le programme litiges en matière de droits d'auteur contre les entreprises technologiques qui utilisent des données d'entraînement pour construire leurs modèles. 

Les données d'entraînement sont souvent collectées auprès de tiers, comme Common Crawl, et de "bibliothèques fantômes" comme Bibliotik, semblables à des sites de torrents comme PirateBay. 

Dans ce cas, qui est responsable de la violation du droit d'auteur ? Les développeurs d'IA ou les éditeurs d'ensembles de données ? Il s'agit d'un cercle de responsabilité digne d'un dessin animé, dans lequel chaque partie potentiellement coupable désigne ses voisins et, en fin de compte, tout le monde échappe au blâme. 

Ce paysage éthique flou est bien plus risqué dans le contexte des armes d'IA et des tactiques militaires algorithmiques, où les calculs d'un modèle peuvent littéralement déterminer la vie ou la mort. 

Les organisations militaires sont déjà conscientes du changement de paradigme que représente l'armement IA. Selon le ministère de la défense (DoD), la première de ses cinq "principes éthiques pour l'intelligence artificielle"Pour les utilisations militaires, le terme "responsable" est défini comme suit : "Le personnel du ministère de la défense fera preuve de discernement et de prudence, tout en restant responsable du développement, du déploiement et de l'utilisation des capacités d'IA".

Cela signifie qu'un être humain doit en fin de compte être responsable des actions de la machine. L'armée s'est toujours appuyée sur le principe selon lequel quelqu'un - généralement le commandant ou un soldat - doit être tenu pour responsable des actions entreprises pendant la guerre. Pourtant, le rôle de l'IA dans le processus décisionnel est de plus en plus obscur. 

La première question qui se pose est la suivante : alors que l'IA joue un rôle de plus en plus sophistiqué dans le ciblage, la surveillance et d'autres domaines, le fait d'appuyer sur le bouton "Approbation" équivaut-il à une culpabilité ? 

Si les prévisions de l'IA s'avéraient erronées, par exemple, et entraînaient des pertes civiles, il est douteux que quiconque accepterait que "la machine" soit la seule responsable de l'accident. 

Par ailleurs, il peut arriver que des êtres humains soient blâmés à tort pour leur rôle dans un accident auquel ils n'ont pas contribué, ce que l'anthropologue M.C. Elish qualifie de ".zone de déformation morale." 

Les recherches d'Elish sur les accidents industriels et les accidents liés aux machines suggèrent que les humains ont tendance à absorber le blâme dans tout accident, même si la faute incombe à la machine, à l'algorithme ou au décideur qui a approuvé la technologie en premier lieu. 

Elle s'appuie sur plusieurs exemples concrets, tels que l'accident nucléaire de Three Mile Island, en Pennsylvanie, et le crash du vol 447 d'Air France, qui ont été largement attribués à une "erreur humaine" plutôt qu'à une série plus complexe de défaillances réparties entre de multiples individus et systèmes. 

Elish déclare à propos de la responsabilité à l'ère de l'IA : "En ce qui concerne les technologies autonomes et robotiques, les réglementations, les lois et les normes sont encore en cours de formation et peuvent être particulièrement sujettes à des incertitudes, voire à des dérobades en matière de responsabilité".

Cela soulève également des questions concernant le rôle des processus démocratiques dans la guerre et la souveraineté de la prise de décision humaine. Lorsque la guerre du Viêt Nam a été diffusée dans les salons américains, l'immédiateté du bilan de la guerre a eu un impact sur l'opinion publique et la politique. 

En revanche, les combats assistés par l'IA pourraient supprimer les freins et contrepoids sociétaux de l'opinion publique et du discours démocratique.

L'éthicien et philosophe Thomas Metzinger souligne que les normes éthiques ne sont pas seulement des constructions juridiques, mais aussi des normes sociales issues des processus démocratiques.

Si les algorithmes prennent les décisions, l'implication humaine - et donc la responsabilité morale - devient diffuse et redondante. 

Implications juridiques internationales de l'IA dans la guerre

L'un des piliers de la Convention de Genève est le principe de "distinction", qui impose de faire la distinction entre les combattants et les civils. 

La technologie a déjà prouvé son incapacité à tenir les promesses de protection accrue des civils, puisque seulement 10% des personnes tuées lors des frappes de drones américains pendant la présidence Obama étaient les cibles visées, d'après des documents divulgués par la Commission européenne. The Intercept

La qualité des algorithmes d'IA dépend des données sur lesquelles ils sont formés et des règles qu'ils sont programmés pour suivre. En matière de guerre, un algorithme peut mal interpréter des données en raison du brouillard de guerre, de données d'entraînement erronées ou de tactiques ennemies délibérément trompeuses. 

Le Comité international de la Croix-Rouge (CICR) a entamé des discussions sur la légalité des systèmes d'armes autonomes au regard du droit international humanitaire existant, mais il existe peu de définitions concrètes. 

Ils constatent que les cadres existants sont mal adaptés aux nouveaux défis posés par l'IA, et que l'IA n'est pas une science exacte. Principes proposés par le CICR sont vagues ; par exemple, "les systèmes d'armes autonomes imprévisibles devraient être expressément exclus".

Où fixer le seuil d'"imprévisibilité" lorsqu'une erreur minuscule peut s'avérer catastrophique ?

En outre, le champ de bataille est en perpétuelle évolution et présentera des "cas limites", c'est-à-dire des angles morts non pris en compte dans la formation à l'IA. Il est exceptionnellement difficile de construire des systèmes d'IA qui réagissent aux conditions environnementales dynamiques avec les mêmes temps de réaction que les humains. 

Si l'armement IA peut maintenir sa précision dans des scénarios typiques du champ de bataille, que se passe-t-il lorsque l'environnement s'éloigne de ce que le modèle pense être la "vérité de terrain", ou que des cas extrêmes altèrent sa précision ?

Érosion de la sensibilité morale

L'acte de tuer en temps de guerre a considérablement changé avec l'avènement des stratégies et tactiques militaires modernes. 

Pendant la première guerre mondiale, des analyses et des récits historiques comme le livre controversé de S.L.A. Marshall "Les hommes contre le feu"Les résultats de l'enquête sur les armes à feu et les armes de poing suggèrent que seulement 15 à 25% des soldats de première ligne ont tiré avec l'intention de tuer. 

Aujourd'hui, un soldat qui pilote un drone à des milliers de kilomètres de distance ne subit pas l'impact émotionnel et psychologique immédiat de ses actions, ce qui s'est traduit par une fréquence généralement plus faible de SSPT et d'autres problèmes de santé mentale par rapport à ceux qui servent sur le terrain.

La conception même de la technologie militaire s'est adaptée aux nouveaux paradigmes de la "guerre à distance". Les manettes utilisées pour les drones ont été remarquées pour leur ressemblance avec les manettes de jeux vidéo, un choix de conception qui n'est peut-être pas accidentel.

Les opérateurs d'IA peuvent prendre des décisions de vie ou de mort dans un environnement qui réduit les réalités de la guerre à des points de données et des images sur un écran, coupant ainsi l'herbe sous le pied de l'armée. les derniers liens moraux que nous entretenons avec la vie des personnes impliquées dans un conflit. 

Quelle est la suite des événements ?

Alors que l'IA militaire évolue vers quelque chose que beaucoup redoutent, la responsabilité des erreurs et des échecs incombe à une seule personne, Il semble peu probable que des développeurs, des organisations ou des groupes entiers puissent être touchés. 

Qui, ou quoi, doit en porter la responsabilité ? Homment éviter d'entrer dans un avenir où le meurtre devient plus machinal qu'humain et où la responsabilité éthique se dissipe dans des abstractions algorithmiques ? 

À terme, des systèmes artificiels de plus en plus intelligents transformeront probablement le tissu de l'éthique et de la responsabilité, en particulier s'ils présentent des signes de sensibilité ou de conscience.

Mais cela ne rend pas compte de la manière dont cette situation est gérée aujourd'hui et, comme pour beaucoup de choses dans le monde de l'IA, il y a plus de questions que de réponses.

Rejoindre l'avenir


SOUSCRIRE AUJOURD'HUI

Clair, concis, complet. Maîtrisez les développements de l'IA avec DailyAI

Sam Jeans

Sam est un rédacteur scientifique et technologique qui a travaillé dans diverses start-ups spécialisées dans l'IA. Lorsqu'il n'écrit pas, on peut le trouver en train de lire des revues médicales ou de fouiller dans des boîtes de disques vinyles.

×

PDF GRATUIT EXCLUSIF
Gardez une longueur d'avance avec DailyAI

Inscrivez-vous à notre newsletter hebdomadaire et recevez un accès exclusif au dernier eBook de DailyAI : 'Mastering AI Tools : Your 2024 Guide to Enhanced Productivity" (Maîtriser les outils de l'IA : votre guide 2024 pour une meilleure productivité).

*En vous abonnant à notre lettre d'information, vous acceptez nos conditions d'utilisation. Politique de confidentialité et notre Conditions générales d'utilisation