Alex Karp, administrerende direktør i Palantir Technologies, sier at den amerikanske regjeringen bør jobbe med å produsere AI-våpen, til tross for berettigede bekymringer.
I en Kronikk i New York TimesI sin tale til presidenten, Karp, gjorde han sammenligninger med Manhattan-prosjektet og sa at dristige tiltak i likhet med det Oppenheimer og hans team hadde gjort, var avgjørende for nasjonale interesser. Palantir produserer programvareverktøy for målvalg, oppdragsplanlegging og satellittrekognosering som i dag brukes av det amerikanske forsvaret.
Selskapet har allerede integrert AI i sin Plattform for kunstig intelligens (AIP) som har både kommersielle og forsvarsmessige bruksområder.
Utfordringen for selskaper som Palantir er at de trenger dyktige ingeniører for å utvikle AI-våpen, og de er vanskelige å få tak i.
Karp beklager at mange ingeniører i Silicon Valley vegrer seg mot å jobbe med forsvarsprosjekter, og mener at deres moralske resonnementer er misforståtte og til og med upatriotiske. Noe som forsterker frustrasjonen hans, er reguleringsmyndighetene kommer til å strekke seg langt i et forsøk på å bremse utviklingen av kunstig intelligens.
Karp anerkjente de reelle kjente og ukjente farene, men sa samtidig at USA burde ligge i forkant av utviklingen av AI-våpen fordi landets fiender ikke delte USAs tilbakeholdenhet.
"Motstanderne våre vil ikke stoppe opp for å hengi seg til teatralske debatter om fordelene ved å utvikle teknologier med kritiske militære og nasjonale sikkerhetsapplikasjoner. De vil fortsette," sa han.
Våpen er designet for å være farlige, men vi forstår ikke engang hvor farlige AI-våpen egentlig kan være. Men Karp insisterer på at det å skape farlige AI-våpen er avgjørende for å holde Vesten trygg.
Han siterte Thomas Schelling, professor i økonomi og spillteori ved Harvard og Yale, som sa: "For å kunne utøve tvang må man kunne forutse vold ... Makten til å såre er forhandlingsmakt. Å utnytte den er diplomati - ondskapsfullt diplomati, men diplomati."
Karp sier at den AI-trusselen vi bør være mer bekymret for, er hvordan vi skal holde AI i sjakk hvis den får lov til å integrere seg med strømnettet, flytrafikkontrollen eller forsvar og etterretningsnettverk.
Men denne berettigede bekymringen ser ikke ut til å støtte argumentasjonen hans. Da han sa det åpenbare om AI som våpen, sa han: "Programvarens evne til å gjøre det lettere å eliminere en fiende er en forutsetning for dens verdi for forsvaret og etterretningsbyråene vi samarbeider med."
Vi er bekymret for å slippe AI løs på strømnett eller flytrafikkontroll, fordi vi frykter hva som kan skje hvis operatørene mister kontrollen.
Å skape kraftige AI-våpen for å bekjempe fienden din gir bare beskyttelse hvis du får bestemme hvem fienden er. Når våpenet har potensial til å ta den avgjørelsen selv, er vi alle i trøbbel.