OpenAI ha modificato le sue politiche di utilizzo per consentire l'impiego dei suoi prodotti di intelligenza artificiale in alcune applicazioni militari, in quanto l'azienda è impegnata con il Pentagono in diversi progetti.
OpenAI sta lavorando a diversi progetti del Dipartimento della Difesa, tra cui le capacità di sicurezza informatica e i metodi per prevenire il suicidio dei veterani. Sta inoltre assistendo il DARPA con la sua AI Cyber Challenge per trovare e correggere automaticamente le vulnerabilità del software e difendere le infrastrutture critiche dai cyberattacchi.
L'impegno di OpenAI con le forze armate statunitensi rappresenta un allontanamento dalla sua precedente politica di divieto di utilizzo militare dei suoi prodotti. Fino a pochi giorni fa, la pagina delle politiche d'uso riportava "militari e guerra" nell'elenco delle applicazioni non consentite.
I termini aggiornati non menzionano più la parola "militare", ma dicono che i suoi strumenti non possono essere usati per causare danni a nessuno o per sviluppare armi.
In un'intervista rilasciata alla Bloomberg House presso il World Economic Forum di Davos, Anna Makanju, vicepresidente di OpenAI per gli affari globali, ha dichiarato: "Poiché in precedenza c'era un divieto generalizzato sulle forze armate, molti pensavano che ciò avrebbe proibito molti di questi casi d'uso, che invece sono molto in linea con ciò che vogliamo vedere nel mondo".
I dipendenti della Silicon Valley delle grandi aziende tecnologiche si sono spesso opposti all'utilizzo dei loro sforzi ingegneristici in applicazioni militari.
Nel 2019, i dipendenti di Microsoft hanno firmato una lettera di protesta contro il contratto di $480m per la fornitura di cuffie per la realtà aumentata all'esercito degli Stati Uniti. L'anno scorso, i dipendenti di Google e Microsoft hanno protestato contro un progetto congiunto che avrebbe visto le aziende fornire servizi di cloud computing al governo e all'esercito israeliano.
Un portavoce di OpenAI ha dichiarato alla CNB: "La nostra politica non consente di utilizzare i nostri strumenti per danneggiare le persone, per sviluppare armi, per la sorveglianza delle comunicazioni o per ferire altre persone o distruggere proprietà. Esistono tuttavia casi d'uso per la sicurezza nazionale che sono in linea con la nostra missione".
Se questa missione include il guadagno per gli azionisti, allora OpenAI potrebbe aver fatto il primo passo su una china scivolosa. Potremmo vedere il "WarGPT" in futuro?
A novembre, il vicesegretario alla Difesa Kathleen Hicks ha dichiarato che l'IA è "una parte fondamentale dell'approccio globale e incentrato sul combattente all'innovazione che il segretario Austin e io abbiamo guidato fin dal primo giorno".
Sembra inevitabile che l'IA venga utilizzata in un'ampia gamma di applicazioni militari, comprese le armi. La domanda è: di chi saranno i modelli di IA sotto il cofano?