Lors de la conférence internationale "L'humanité à la croisée des chemins : Autonomous Weapons Systems and the Challenge of Regulation" à Vienne, des appels ont été lancés pour réglementer l'utilisation de l'IA dans les systèmes d'armes autonomes (AWS) alors que la technologie n'en est qu'à ses débuts.
Au fil des siècles, les progrès technologiques ont entraîné des changements spectaculaires dans la manière dont les guerres sont menées. Des développements tels que l'acier, la poudre à canon et, plus tard, la bombe atomique ont tous trouvé leurs applications initiales dans la guerre avant d'être introduits dans des applications civiles.
À cet égard, l'IA a pris le contre-pied de la tendance. Les premières applications ont surtout été commerciales, mais les forces de défense ont rapidement perçu le potentiel de l'IA pour transformer à nouveau le champ de bataille.
Faisant référence à la première bombe atomique, le ministre autrichien des affaires étrangères, Alexander Schallenberg, a déclaré aux participants venus de 143 pays que le monde est confronté à un "moment Oppenheimer" lorsqu'il s'agit de décider si et comment l'IA doit être utilisée dans les armes autonomes.
L'humanité à la croisée des chemins : Les systèmes d'armes autonomes envahiront bientôt les champs de bataille du monde entier. Nous devons agir et nous mettre d'accord sur des règles internationales pour garantir que les décisions de vie ou de mort ne soient jamais prises par des machines !
➡️ Coup d'envoi #AWS2024Vienne avec plus de 900 invités provenant de 142 pays pic.twitter.com/AtwumLu4OP
- Alexander Schallenberg (@a_schallenberg) 29 avril 2024
Le besoin urgent de réglementations n'est pas seulement dû à l'anticipation de menaces potentielles futures, mais aussi à l'utilisation de l'IA dans les conflits actuels.
Drones autonomes sont utilisés par les deux parties dans la guerre en Ukraine. Forces israéliennes utilisent l'IA dans de multiples applications de défense, notamment pour identifier des cibles humaines lors de la guerre à Gaza.
M. Schallenberg a déclaré que "les systèmes d'armes autonomes envahiront bientôt les champs de bataille du monde entier", avertissant qu'il était maintenant "temps de s'accorder sur des règles et des normes internationales pour assurer le contrôle humain".
Il a insisté sur la nécessité de restreindre l'autonomie des armes d'IA, en déclarant : "Veillons au moins à ce que la décision la plus profonde et la plus lourde de conséquences - qui vit et qui meurt - reste entre les mains des humains et non des machines".
Le gouvernement autrichien a déclaré : "Les systèmes d'armes autonomes (AWS) soulèvent de profondes questions d'un point de vue juridique, éthique, humanitaire et sécuritaire. L'humanité est à la croisée des chemins et doit s'unir pour relever le défi fondamental de la réglementation de ces armes".
Dollars de la défense contre humanité
Les conflits en cours ont entraîné une augmentation des budgets de défense à l'échelle mondiale. Entreprises technologiques de défense alimentées par l'IA La réponse est fulgurante. Les technologies AWS pourraient être trop lucratives pour être interdites.
Jaan Tallinn, un investisseur de la première heure du programme Google's DeepMind Technologies a déclaré que "les motivations de la Silicon Valley pourraient ne pas être alignées sur le reste de l'humanité".
Dans son discours d'ouverture Lors de la conférence, M. Tallinn a déclaré : "Je vous implore de vous méfier de ceux qui promettent précision et prévisibilité dans les systèmes utilisant l'IA. Nous avons déjà vu l'IA commettre des erreurs de sélection, petites et grandes, allant de la méconnaissance du crâne chauve d'un arbitre comme s'il s'agissait d'un ballon de football, aux décès de piétons causés par des voitures autonomes, incapables de reconnaître les piétons qui traversent la rue."
"Nous devons être extrêmement prudents avant de nous fier à la précision de ces systèmes, que ce soit dans le secteur militaire ou civil. Les erreurs accidentelles causées par les armes autonomes peuvent déclencher des guerres qui ne devraient jamais avoir lieu".
M. Tallinn a souligné que la conception d'armes d'IA plus fiables n'était pas la solution. Il a expliqué que "même lorsque les armes autonomes deviendront capables de distinguer parfaitement les humains, elles faciliteront considérablement les génocides et les assassinats ciblés qui recherchent des caractéristiques humaines spécifiques".
"Sortir de la course aux armements exige du courage et de la prévoyance. Nous l'avons déjà fait et nous pouvons le refaire".
Extrait de l'ouverture des travaux de la conférence historique de Vienne sur les armes autonomes #AWS2024 hier, voici le discours complet de Jaan Tallinn, cofondateur de FLI : ⬇️ pic.twitter.com/wFYxWpDl1S
- Institut du futur de la vie (@FLI_org) 30 avril 2024
Dans une déclaration finale qui sera envoyée au secrétaire général des Nations unies, le groupe a affirmé son "engagement ferme à travailler d'urgence et avec toutes les parties prenantes intéressées à un instrument juridique international pour réglementer les systèmes d'armes autonomes".
La déclaration ajoute : "Nous avons la responsabilité d'agir et de mettre en place les règles dont nous avons besoin pour protéger l'humanité... Le contrôle humain doit prévaloir dans l'utilisation de la force".
Plus de 115 États membres de l'ONU s'accordent sur la nécessité d'adopter des règles contraignantes concernant les armes légères et de petit calibre, mais en évitant le veto de la Russie, de la Chine ou de l'Union européenne. US semble peu probable.
Anthony Aguirre, cosmologiste et cofondateur du Future Life Institute, a résumé la situation en disant : "L'avenir des robots d'abattage est là".