Altre aziende di IA si uniscono al quadro volontario statunitense sull'IA

12 settembre 2023

AI Casa Bianca

L'amministrazione Biden ha arruolato altre otto aziende di IA nel suo quadro di sicurezza volontaria. 

Google, Anthropic, Microsoft, Amazon, OpenAI, Meta e Inflection hanno aderito al quadro volontario della Casa Bianca per lo sviluppo e l'impiego etico dell'IA a fine luglio.

Questa settimana la Casa Bianca ha annunciato l'adesione di Adobe, IBM, Nvidia, Salesforce, Cohere, Scale AI, Palantir e Stability. 

Il quadro di riferimento di Biden incoraggia le aziende a condividere i protocolli di sicurezza e le misure di salvaguardia, a rivelare le capacità e i limiti delle loro tecnologie di IA e a utilizzare l'IA per "aiutare ad affrontare le maggiori sfide della società". 

Questo impegno solleva delle perplessità, dato che alcune aziende partecipanti - in particolare Palantir - sono note per le loro applicazioni militari di intelligenza artificiale e per le tecnologie di sorveglianza domestica. L'azienda è nota per le sue relazioni globali con vari governi e organizzazioni militari. 

Alex Karp, CEO di Palantir recentemente incoraggiato gli Stati Uniti a sfruttare l'IA per gli armamenti e la tecnologia militare, e l'Aeronautica Militare ha già ha condotto voli di prova con successo con un jet controllato dall'intelligenza artificiale. 

Karp, intervenendo a un summit di febbraio sulle tecnologie AI-militari, ha indicato che l'azienda sta fornendo dati analitici per applicazioni sul campo di battaglia all'esercito ucraino. Nonostante ciò, Karp ha affermato che "un'architettura che consenta la trasparenza sulle fonti dei dati" dovrebbe essere "imposta per legge".

Durante un'audizione della Commissione per i servizi armati del Senato, il CTO di Palantir Shyam Sankar ha commentato che l'interruzione dello sviluppo dell'intelligenza artificiale potrebbe compromettere la supremazia tecnologica degli Stati Uniti sulla Cina. Ha sottolineato la necessità per gli Stati Uniti di investire ulteriormente in "capacità che terrorizzeranno i nostri avversari".

Secondo i critici, il quadro della Casa Bianca non tiene conto di considerazioni etiche vitali, come la trasparenza dei dati di addestramento dell'IA generativa, che la maggior parte delle aziende tiene sotto chiave. 

La Casa Bianca ha dichiarato che è in corso di elaborazione un ordine esecutivo per "proteggere i diritti e la sicurezza degli americani", ma non sono stati resi noti ulteriori dettagli.

Le complessità dell'IA etica non si limitano a Palantir. Altre grandi aziende tecnologiche come Google e Microsoft hanno avuto la loro parte di controversie sui contratti militari. 

Google una volta a capo del progetto Maven, un'iniziativa per utilizzare l'intelligenza artificiale per la sorveglianza dei droni, ma l'ha abbandonata dopo le proteste dei dipendenti. Secondo quanto riferito da Palantir, il progetto è stato poi ripreso.

Allo stato attuale, gli sforzi dell'amministrazione Biden si concentrano principalmente su raccomandazioni non vincolanti e ordini esecutivi. 

Il capo dello staff della Casa Bianca, Jeff Zeints ha dichiarato a Reuters che l'amministrazione sta "tirando ogni leva che abbiamo" per mitigare i rischi associati all'IA.

Nel frattempo, il leader della maggioranza del Senato degli Stati Uniti, Chuck Schumer, sta organizzando una serie di "AI Insight Forum", il primo dei quali si terrà domani, 13 settembre

La portata del quadro volontario della Casa Bianca si allunga

Secondo un scheda governativa che copre il quadro di riferimento, gli impegni di coloro che hanno aderito finora fungono da "importante ponte per l'azione del governo". 

Le aziende hanno accettato di sottoporre i loro sistemi di IA a rigorosi test di sicurezza interni ed esterni prima del rilascio pubblico. 

"Questi test, che saranno condotti in parte da esperti indipendenti, proteggono da alcune delle fonti più significative di rischi legati all'IA, come la biosicurezza e la sicurezza informatica", ha dichiarato la Casa Bianca.

In particolare, le aziende si impegneranno anche a condividere le informazioni sulla gestione dei rischi dell'IA all'interno del settore e con i governi, la società civile e il mondo accademico.

L'obiettivo è formare un ambiente collaborativo per migliorare i protocolli di sicurezza dell'IA e offrire una piattaforma per la collaborazione tecnica nel contrastare i tentativi di elusione delle protezioni.

"Nello sviluppo di questi impegni, l'Amministrazione ha consultato Australia, Brasile, Canada, Cile, Francia, Germania, India, Israele, Italia, Giappone, Kenya, Messico, Paesi Bassi, Nuova Zelanda, Nigeria, Filippine, Singapore, Corea del Sud, Emirati Arabi Uniti e Regno Unito", ha rivelato la Casa Bianca. 

Esistono altre iniziative volte a rafforzare la resilienza degli Stati Uniti nei confronti dell'IA, come ad esempio un concorso chiamato "Sfida informatica all'intelligenza artificiale" in collaborazione con la DARPA.

La regolamentazione dell'IA sembra accelerare verso una massa critica, con l'UE che sta procedendo verso la versione finale della sua legge sull'IA.

Partecipa al futuro


ISCRIVITI OGGI

Chiaro, conciso, completo. Per conoscere gli sviluppi dell'IA con DailyAI

Sam Jeans

Sam è uno scrittore di scienza e tecnologia che ha lavorato in diverse startup di intelligenza artificiale. Quando non scrive, lo si può trovare a leggere riviste mediche o a scavare tra scatole di dischi in vinile.

×

PDF GRATUITO ESCLUSIVO
Rimanere all'avanguardia con DailyAI

Iscriviti alla nostra newsletter settimanale e ricevi l'accesso esclusivo all'ultimo eBook di DailyAI: 'Mastering AI Tools: La tua guida 2024 per una maggiore produttività".

*Iscrivendosi alla nostra newsletter si accetta la nostra Informativa sulla privacy e il nostro Termini e condizioni