Alex Karp, CEO di Palantir Technologies, afferma che il governo statunitense dovrebbe lavorare alla produzione di armi AI nonostante le valide preoccupazioni.
In un Articolo del New York TimesKarp ha fatto paragoni con il Progetto Manhattan e ha affermato che un'azione coraggiosa come quella intrapresa da Oppenheimer e dal suo team è vitale per gli interessi nazionali. Palantir produce strumenti software per la selezione degli obiettivi, la pianificazione delle missioni e la ricognizione satellitare, attualmente utilizzati dalle forze di difesa statunitensi.
L'azienda ha già integrato l'intelligenza artificiale nei suoi Piattaforma di intelligenza artificiale (AIP) che ha applicazioni sia commerciali che di difesa.
La sfida che aziende come Palantir devono affrontare è che per sviluppare armi di intelligenza artificiale hanno bisogno di ingegneri di talento, che sono difficili da trovare.
Karp ha lamentato la riluttanza di molti ingegneri della Silicon Valley a lavorare su progetti di difesa, affermando che il loro ragionamento morale è sbagliato e persino antipatriottico. Ad aggravare la sua frustrazione c'è la le lunghezze che i regolatori stanno per nel tentativo di frenare lo sviluppo dell'intelligenza artificiale.
Pur riconoscendo i reali pericoli conosciuti e sconosciuti, Karp ha affermato che gli Stati Uniti dovrebbero essere all'avanguardia nello sviluppo di armi AI perché i loro nemici non condividono la loro reticenza.
"I nostri avversari non si soffermeranno in dibattiti teatrali sui meriti dello sviluppo di tecnologie con applicazioni critiche per la sicurezza militare e nazionale. Procederanno", ha dichiarato.
Le armi sono progettate per essere pericolose, ma non sappiamo nemmeno quanto possano essere pericolose le armi AI. Ma Karp insiste sul fatto che la creazione di armi AI pericolose è essenziale per mantenere l'Occidente al sicuro.
Ha citato Thomas Schelling, professore di economia e teoria dei giochi a Harvard e Yale, che ha detto: "Per essere coercitiva, la violenza deve essere anticipata... Il potere di ferire è potere contrattuale. Sfruttarlo è diplomazia - diplomazia feroce, ma diplomazia".
Karp sostiene che la minaccia dell'IA di cui dovremmo preoccuparci di più è come tenere sotto controllo l'IA se le viene permesso di integrarsi con la rete elettrica, il controllo del traffico aereo o il sistema di controllo del traffico aereo. difesa e reti di intelligence.
Questa valida preoccupazione, tuttavia, non sembra sostenere la sua argomentazione. Nel dichiarare l'ovvio riguardo all'IA come arma, ha detto: "La capacità del software di facilitare l'eliminazione di un nemico è un prerequisito del suo valore per le agenzie di difesa e di intelligence con cui lavoriamo".
Siamo preoccupati di lasciare libera l'intelligenza artificiale sulle reti elettriche o sul controllo del traffico aereo perché ci preoccupiamo di cosa potrebbe accadere se gli operatori ne perdessero il controllo.
La creazione di potenti armi IA per combattere i vostri nemici offre protezione solo se siete voi a decidere chi è il nemico. Quando l'arma ha il potenziale per decidere da sola, allora siamo tutti nei guai.