Alex Karp, PDG de Palantir Technologies, estime que le gouvernement américain devrait travailler à la production d'armes d'intelligence artificielle, malgré des inquiétudes fondées.
Dans un Article d'opinion du New York TimesKarp a fait des comparaisons avec le projet Manhattan et a déclaré qu'une action audacieuse similaire à celle entreprise par Oppenheimer et son équipe était vitale pour les intérêts nationaux. Palantir produit des outils logiciels de sélection des cibles, de planification des missions et de reconnaissance par satellite qui sont actuellement utilisés par les forces de défense américaines.
L'entreprise a déjà intégré l'IA dans ses Plate-forme d'intelligence artificielle (PIA) qui a des applications commerciales et militaires.
Le défi auquel sont confrontées les entreprises comme Palantir est que pour développer des armes d'IA, elles ont besoin d'ingénieurs talentueux, et il est difficile d'en trouver.
M. Karp déplore la réticence de nombreux ingénieurs de la Silicon Valley à travailler sur des projets de défense, estimant que leur raisonnement moral est erroné, voire antipatriotique. Sa frustration est d'autant plus grande que les les régulateurs vont dans le but de freiner le développement de l'IA.
Tout en reconnaissant les dangers connus et inconnus très réels, M. Karp a déclaré que les États-Unis devraient être à l'avant-garde du développement des armes d'intelligence artificielle parce que leurs ennemis ne partagent pas leur réticence.
"Nos adversaires ne s'arrêteront pas pour se livrer à des débats théâtraux sur les mérites du développement de technologies ayant des applications militaires et de sécurité nationale essentielles. Ils iront de l'avant", a-t-il déclaré.
Les armes sont conçues pour être dangereuses, mais nous ne comprenons même pas à quel point les armes d'IA pourraient être dangereuses. Pourtant, M. Karp insiste sur le fait que la création d'armes d'IA dangereuses est essentielle pour assurer la sécurité de l'Occident.
Il a cité Thomas Schelling, professeur d'économie et de théorie des jeux à Harvard et à Yale, qui a déclaré : "Pour être coercitive, la violence doit être anticipée... Le pouvoir de blesser est un pouvoir de négociation. L'exploiter relève de la diplomatie - une diplomatie vicieuse, mais une diplomatie".
Selon M. Karp, la menace de l'IA qui devrait nous préoccuper le plus est de savoir comment contrôler l'IA si elle est autorisée à s'intégrer au réseau électrique, au contrôle du trafic aérien ou à l'industrie automobile. défense et les réseaux de renseignement.
Cette préoccupation valable ne semble toutefois pas vraiment étayer son argumentation. En énonçant l'évidence concernant l'IA en tant qu'arme, il a déclaré : "La capacité d'un logiciel à faciliter l'élimination d'un ennemi est une condition préalable à sa valeur pour les agences de défense et de renseignement avec lesquelles nous travaillons".
Nous sommes inquiets à l'idée de laisser l'IA s'occuper des réseaux électriques ou du contrôle du trafic aérien, car nous craignons ce qui pourrait se produire si les opérateurs en perdaient le contrôle.
La création d'armes IA puissantes pour combattre vos ennemis n'offre une protection que si vous avez la possibilité de décider qui est l'ennemi. Lorsque l'arme a la possibilité de prendre elle-même cette décision, nous sommes tous dans le pétrin.