L'IA confrontée au "moment d'Oppenheimer" dans la course à l'armement des robots tueurs

1er mai 2024

  • Une conférence internationale organisée à Vienne a débattu de la nécessité de réglementer les armes d'IA autonomes.
  • Le ministre autrichien des affaires étrangères, Alexander Schallenberg, a déclaré que le monde était confronté à un "moment Oppenheimer"
  • L'IA est déjà utilisée dans les guerres en Israël et en Ukraine en l'absence de réglementation de la technologie.

Lors de la conférence internationale "L'humanité à la croisée des chemins : Autonomous Weapons Systems and the Challenge of Regulation" à Vienne, des appels ont été lancés pour réglementer l'utilisation de l'IA dans les systèmes d'armes autonomes (AWS) alors que la technologie n'en est qu'à ses débuts.

Au fil des siècles, les progrès technologiques ont entraîné des changements spectaculaires dans la manière dont les guerres sont menées. Des développements tels que l'acier, la poudre à canon et, plus tard, la bombe atomique ont tous trouvé leurs applications initiales dans la guerre avant d'être introduits dans des applications civiles.

À cet égard, l'IA a pris le contre-pied de la tendance. Les premières applications ont surtout été commerciales, mais les forces de défense ont rapidement perçu le potentiel de l'IA pour transformer à nouveau le champ de bataille.

Faisant référence à la première bombe atomique, le ministre autrichien des affaires étrangères, Alexander Schallenberg, a déclaré aux participants venus de 143 pays que le monde est confronté à un "moment Oppenheimer" lorsqu'il s'agit de décider si et comment l'IA doit être utilisée dans les armes autonomes.

Le besoin urgent de réglementations n'est pas seulement dû à l'anticipation de menaces potentielles futures, mais aussi à l'utilisation de l'IA dans les conflits actuels.

Drones autonomes sont utilisés par les deux parties dans la guerre en Ukraine. Forces israéliennes utilisent l'IA dans de multiples applications de défense, notamment pour identifier des cibles humaines lors de la guerre à Gaza.

M. Schallenberg a déclaré que "les systèmes d'armes autonomes envahiront bientôt les champs de bataille du monde entier", avertissant qu'il était maintenant "temps de s'accorder sur des règles et des normes internationales pour assurer le contrôle humain".

Il a insisté sur la nécessité de restreindre l'autonomie des armes d'IA, en déclarant : "Veillons au moins à ce que la décision la plus profonde et la plus lourde de conséquences - qui vit et qui meurt - reste entre les mains des humains et non des machines".

Le gouvernement autrichien a déclaré : "Les systèmes d'armes autonomes (AWS) soulèvent de profondes questions d'un point de vue juridique, éthique, humanitaire et sécuritaire. L'humanité est à la croisée des chemins et doit s'unir pour relever le défi fondamental de la réglementation de ces armes".

Dollars de la défense contre humanité

Les conflits en cours ont entraîné une augmentation des budgets de défense à l'échelle mondiale. Entreprises technologiques de défense alimentées par l'IA La réponse est fulgurante. Les technologies AWS pourraient être trop lucratives pour être interdites.

Jaan Tallinn, un investisseur de la première heure du programme Google's DeepMind Technologies a déclaré que "les motivations de la Silicon Valley pourraient ne pas être alignées sur le reste de l'humanité".

Dans son discours d'ouverture Lors de la conférence, M. Tallinn a déclaré : "Je vous implore de vous méfier de ceux qui promettent précision et prévisibilité dans les systèmes utilisant l'IA. Nous avons déjà vu l'IA commettre des erreurs de sélection, petites et grandes, allant de la méconnaissance du crâne chauve d'un arbitre comme s'il s'agissait d'un ballon de football, aux décès de piétons causés par des voitures autonomes, incapables de reconnaître les piétons qui traversent la rue."

"Nous devons être extrêmement prudents avant de nous fier à la précision de ces systèmes, que ce soit dans le secteur militaire ou civil. Les erreurs accidentelles causées par les armes autonomes peuvent déclencher des guerres qui ne devraient jamais avoir lieu".

M. Tallinn a souligné que la conception d'armes d'IA plus fiables n'était pas la solution. Il a expliqué que "même lorsque les armes autonomes deviendront capables de distinguer parfaitement les humains, elles faciliteront considérablement les génocides et les assassinats ciblés qui recherchent des caractéristiques humaines spécifiques".

Dans une déclaration finale qui sera envoyée au secrétaire général des Nations unies, le groupe a affirmé son "engagement ferme à travailler d'urgence et avec toutes les parties prenantes intéressées à un instrument juridique international pour réglementer les systèmes d'armes autonomes".

La déclaration ajoute : "Nous avons la responsabilité d'agir et de mettre en place les règles dont nous avons besoin pour protéger l'humanité... Le contrôle humain doit prévaloir dans l'utilisation de la force".

Plus de 115 États membres de l'ONU s'accordent sur la nécessité d'adopter des règles contraignantes concernant les armes légères et de petit calibre, mais en évitant le veto de la Russie, de la Chine ou de l'Union européenne. US semble peu probable.

Anthony Aguirre, cosmologiste et cofondateur du Future Life Institute, a résumé la situation en disant : "L'avenir des robots d'abattage est là".

Rejoindre l'avenir


SOUSCRIRE AUJOURD'HUI

Clair, concis, complet. Maîtrisez les développements de l'IA avec DailyAI

Eugène van der Watt

Eugene a une formation d'ingénieur en électronique et adore tout ce qui touche à la technologie. Lorsqu'il fait une pause dans sa consommation d'informations sur l'IA, vous le trouverez à la table de snooker.

×

PDF GRATUIT EXCLUSIF
Gardez une longueur d'avance avec DailyAI

Inscrivez-vous à notre newsletter hebdomadaire et recevez un accès exclusif au dernier eBook de DailyAI : 'Mastering AI Tools : Your 2024 Guide to Enhanced Productivity" (Maîtriser les outils de l'IA : votre guide 2024 pour une meilleure productivité).

*En vous abonnant à notre lettre d'information, vous acceptez nos conditions d'utilisation. Politique de confidentialité et notre Conditions générales d'utilisation