Lors de sa visite au Royaume-Uni pour le sommet sur la sécurité de l'IA, la vice-présidente américaine Kamala Harris a annoncé que 30 pays se sont joints aux États-Unis pour approuver les garde-fous proposés pour l'utilisation militaire de l'IA.
Annonce de la "Déclaration politique sur l'utilisation militaire responsable de l'intelligence artificielle et de l'autonomie a été publié sur le site Internet du Département d'État américain le 1er novembre et des détails supplémentaires sur le cadre ont été publiés le 9 novembre.
Dans sa déclaration concernant le cadre, Mme Harris a déclaré : "Pour assurer l'ordre et la stabilité au milieu des changements technologiques mondiaux, je suis fermement convaincue que nous devons être guidés par un ensemble commun d'interprétations entre les nations".
Il s'agit des pays qui se sont engagés à soutenir l'initiative.
La Chine et la Russie sont notablement absentes de cette liste. La Chine a approuvé le Déclaration de Bletchleyet s'engage à soutenir en principe le développement sûr de l'IA en général.
La décision de la Russie et de la Chine de refuser d'approuver la déclaration sur l'IA militaire pourrait avoir plus à voir avec les auteurs du document qu'avec leur opinion sur son contenu.
Une autre lacune sur la liste est laissée par deux pays qui reçoivent actuellement des milliards de dollars de soutien militaire de la part de certains des États qui les soutiennent, à savoir Israël et l'Ukraine.
En tant qu'alliés des États-Unis, leur décision de ne pas approuver l'engagement est plus probablement due au fait que les deux pays utilisent actuellement l'IA dans les conflits dans lesquels ils sont engagés.
Israël utilise l'IA dans diverses applications militaires, notamment dans le cadre de son programme d'aide à la défense. Dôme de fer système. L'Ukraine a suscité la controverse avec son Des drones autonomes d'IA pour cibler les soldats et des équipements militaires dans son conflit avec la Russie.
À quoi s'engagent-ils ?
Si vous souhaitez lire les détails complets de l'accord entre les signataires vous pouvez le faire ici.
Voici la version courte, qui sacrifie peut-être un peu de substance à la brièveté :
- Assurez-vous que votre armée adopte et utilise ces principes d'IA.
- L'utilisation de l'IA militaire doit respecter le droit international et protéger les civils.
- Les hauts gradés doivent gérer le développement et le déploiement de l'IA militaire.
- Réduire de manière proactive les biais involontaires dans les capacités d'IA militaires.
- Soyez prudent lorsque vous fabriquez ou utilisez des armes de l'IA.
- Assurez-vous que votre technologie de défense contre l'IA est transparente et vérifiable.
- Former ceux qui utilisent ou approuvent l'utilisation des capacités militaires d'IA afin qu'ils ne fassent pas aveuglément confiance à l'IA lorsqu'elle se trompe.
- Définissez clairement ce que vous comptez faire avec votre technologie d'IA militaire et concevez-la de manière à ce qu'elle ne fasse que cela.
- Continuer à tester les capacités d'auto-apprentissage et de mise à jour continue de l'IA militaire pour vérifier si elles sont toujours sûres.
- Prévoyez un interrupteur au cas où l'arme de l'IA se comporterait mal.
Il s'agit là d'idéaux louables, mais il n'est pas certain qu'ils soient technologiquement ou même logistiquement à la portée des organisations de défense.
Seront-ils applicables ? La signature de l'engagement est une confirmation de l'approbation de principe, mais n'entraîne aucune obligation juridique.
Signer un document qui dit "Nous serons prudents lorsque nous utiliserons l'IA dans notre armée" implique également que le pays a pleinement l'intention d'utiliser l'IA comme une arme, même si c'est d'une manière "responsable et éthique".
Au moins, ces pays reconnaissent le potentiel de l'IA à amplifier les dommages que les armes conventionnelles causent déjà. Ce cadre a-t-il rendu le monde un peu plus sûr, ou a-t-il simplement braqué les projecteurs sur ce qui nous attend inévitablement ?