Google, Anthropic, Microsoft, Amazon, OpenAI, Meta e Inflection: questi 7 giganti dell'industria dell'IA hanno accettato gli impegni volontari stabiliti dalla Casa Bianca.
"Dobbiamo essere lucidi e vigili sulle minacce che le tecnologie emergenti possono rappresentare", ha detto Biden parlando dell'IA. Ha parlato di falsi profondi sui social media, tra gli altri rischi.
Il dichiarazione ufficialepubblicato sul sito web della Casa Bianca, evidenzia alcuni processi chiave che le aziende di IA devono rispettare quando sviluppano e rilasciano prodotti al pubblico.
"Le aziende statunitensi sono leader mondiali nell'innovazione e hanno la responsabilità di farlo e di continuare a farlo, ma hanno anche la stessa responsabilità di garantire che i loro prodotti siano sicuri, protetti e affidabili", ha dichiarato il capo dello staff della Casa Bianca, Jeff Zients, in un comunicato stampa. recente intervista alla NPR.
Tuttavia, il processo per chiedere conto alle aziende di IA se non rispettano i loro impegni rimane confuso. "Useremo ogni leva che abbiamo nel governo federale per far rispettare questi impegni e questi standard. Allo stesso tempo, abbiamo bisogno di una legislazione", ha spiegato Zients.
La Casa Bianca sta lavorando in tandem con il Congresso per formulare una legislazione sull'IA che ne accentui il potenziale positivo e ne controlli i rischi. Gli Stati Uniti, che hanno iniziato lentamente a legiferare in materia di IA, hanno fatto passi avanti significativi stabilire una posizione sulla tecnologia per indirizzarla verso fini positivi.
Quali sono gli impegni?
Gli impegni riguardano la trasparenza, la sperimentazione e la condivisione delle informazioni con il pubblico e il governo.
Gli sviluppatori di IA si impegnano a far testare i loro prodotti "in parte da esperti indipendenti" per proteggersi da rischi significativi. Google e OpenAI faranno testare i loro sistemi di IA alla prossima convention di hacking DEF-CON di Las Vegas, una mossa approvata dalla Casa Bianca.
Altre promesse includono lo sviluppo di metodi per indicare quando il contenuto è generato dall'IA, come le filigrane, evitando pregiudizi e discriminazioni e salvaguardando la privacy.
Questi accordi, tuttavia, sono solo l'inizio. "Gli impegni assunti dalle aziende sono un buon inizio, ma è solo un inizio", ha detto Zients. "La chiave è l'implementazione e l'esecuzione, affinché queste aziende possano operare e guadagnarsi la fiducia del pubblico".
La Casa Bianca ha anche avviato colloqui con i leader dei diritti civili e dei sindacati per capire l'influenza dell'IA sul loro lavoro.
Tuttavia, Ifeoma Ajunwa, docente di diritto alla Emory, esprime disappunto per il fatto che la Casa Bianca abbia collaborato principalmente con le stesse aziende di IA: "Vogliamo anche assicurarci di includere altre voci che non abbiano uno scopo di lucro", ha detto.
"Dovremmo sicuramente invitare i leader aziendali e i titani della tecnologia a partecipare a questa conversazione, ma non dovrebbero essere loro a guidare la conversazione".
I nuovi accordi potrebbero favorire ingiustamente le aziende più grandi e consolidate, frenando la crescita delle startup.
Victor Menaldo, professore di economia politica presso l'Università di Washington, suggerisce che "le aziende più grandi e consolidate possono giocare a loro favore, mentre i nuovi arrivati non hanno voce in capitolo".
La regolamentazione sarà anche colpire la comunità open-sourceche non ha necessariamente la fiducia e il peso di governance di aziende tecnologiche affermate come Google e Microsoft.
La conformità sarà probabilmente costosa e rischia di gravare sulle startup.
I funzionari della Casa Bianca non hanno chiarito se nuove aziende si aggiungeranno agli accordi: "Ci aspettiamo che altre aziende vedano come anche loro hanno l'obbligo di essere all'altezza degli standard di sicurezza e fiducia. E potranno scegliere - e siamo lieti che scelgano - di aderire a questi impegni".
Un altro quadro volontario, anche se di livello leggermente superiore agli altri.
Avrà un impatto pratico sullo sviluppo dell'IA? Solo il tempo potrà dirlo.