La RAND Corporation, un think tank con profondi legami con le reti di finanziamento dei miliardari del settore tecnologico, in particolare attraverso Open Philanthropy, ha svolto un ruolo fondamentale nella stesura dell'ordine esecutivo del Presidente Joe Biden sull'IA.
Secondo PoliticoQuesto ordine, fortemente influenzato dall'altruismo effettivo, una filosofia che sostiene un approccio alla filantropia basato sui dati, ha introdotto requisiti completi di rendicontazione dell'IA.
Il coinvolgimento del RAND ha sollevato delle perplessità a causa dei suoi significativi finanziamenti da parte di gruppi come Open Philanthropy, legati a leader del settore tecnologico come Dustin Moskovitz. Secondo il portavoce del RAND, Jeffrey Hiday, il RAND esiste per "condurre ricerche e analisi su argomenti critici del giorno, [e] poi [condividere] tali ricerche, analisi e competenze con i responsabili politici".
Ciò ha comportato un'ampia consultazione sul recente ordine esecutivocompresa la stesura dei documenti finali.
All'inizio di quest'anno, la RAND Corporation ha ricevuto oltre $15 milioni di sovvenzioni discrezionali da Open Philanthropy, destinate a progetti di AI e biosicurezza.
Open Philanthropy, nota per il suo approccio di altruismo effettivo, mantiene legami personali e finanziari con imprese di IA come Anthropic e OpenAI.
Inoltre, le figure di spicco del RAND sono intrecciate nei quadri aziendali di queste aziende di IA in quella che rimane un'industria relativamente compatta ai vertici, almeno negli Stati Uniti.
I critici sostengono che l'allineamento del think tank con l'altruismo effettivo potrebbe distorcere l'attenzione della ricerca, mettendo in ombra problemi immediati di IA come i pregiudizi razziali o la violazione del copyright.
Le dinamiche al RAND riflettono anche una tendenza più ampia in cui L'altruismo effettivo sta influenzando sempre più la politica sull'IA - almeno di entrare nella sua narrativa. Questo movimento, promosso da figure controverse come Sam Bankman-Fried, sostiene la necessità di affrontare i rischi esistenziali a lungo termine, compresi quelli posti dall'IA avanzata, come lo sviluppo di armi biologiche.
Tuttavia, questa attenzione è stata criticata per il fatto che potrebbe servire gli interessi delle aziende tecnologiche di punta, distogliendo l'attenzione dai danni dell'IA esistenti.
In sostanza, l'altruismo efficace rischia di rimandare l'azione immediata e pratica a favore di piani più ipotetici e a lungo termine.
La lotta interna di OpenAI: altruismo contro commercializzazione
OpenAI, inizialmente senza scopo di lucro, ora è alle prese con la tensione tra questi obiettivi altruistici e la realtà del business e del profitto, soprattutto dopo investimenti come quello di $1 miliardo da parte di Microsoft e la sua recente valutazione di $86 miliardi.
Per OpenAI è stato relativamente semplice mantenere questa filosofia quando era piuttosto solitaria ai vertici dell'industria dell'IA generativa.
Ora, con l'arrivo della concorrenza, in particolare Gemini Ultra di Googleche minaccia direttamente la superiorità del GPT-4, non è particolarmente facile esercitare moderazione e attenzione pur mantenendo l'ambita posizione in cima alla pila dei modelli di IA.
Le tensioni in OpenAI sono esplose con la leadership dell'amministratore delegato Sam Altman. Il suo approccio alla gestione di OpenAI incarnava il conflitto tra il tecno-capitalismo della Silicon Valley e la crescente narrativa sui rischi dell'IA. Si è ipotizzato che Altman non prendesse sul serio la sicurezza dell'azienda, anche se la notizia non è stata confermata.
Nonostante le preoccupazioni dei membri del consiglio di amministrazione circa il suo impegno per la sicurezza e la trasparenza, il reintegro di Altman come amministratore delegato ha rappresentato un momento cruciale nella storia dell'azienda, sollevando interrogativi sull'influenza dell'altruismo effettivo e sul potere del consiglio di amministrazione.
La domanda che ci si pone ora è: possono gli ideali di altruismo effettivo e di lungo termine coesistere con i rapidi progressi commerciali e tecnologici nel settore dell'IA?
La regolamentazione può salvaguardare le attività di creazione di valore dell'IA
All'inizio dell'anno, Il promemoria di Luke Sernau a Google ha suggerito che la comunità dell'IA open-source rappresenta una sfida diretta al dominio di tutti i principali sviluppatori di IA.
Nella nota si legge: "In OpenAI ci siamo guardati molto alle spalle. Chi supererà la prossima pietra miliare? Quale sarà la prossima mossa? Ma la scomoda verità è che non siamo in grado di vincere questa corsa agli armamenti e nemmeno OpenAI. Mentre noi ci accapigliamo, una terza fazione si sta tranquillamente mangiando il nostro pranzo. Sto parlando, ovviamente, dell'open source".
I modelli open source, esemplificati da LLaMA di Meta e da Il Mistral di Mistralstanno rapidamente colmando il divario tra l'innovazione di base e le grandi tecnologie.
Sebbene sia presentata come una mossa verso uno sviluppo responsabile dell'IA, la spinta alla regolamentazione dell'IA da parte di aziende come Google e OpenAI può anche minare la comunità dell'IA open-source, che offre un'alternativa decentralizzata ai modelli centralizzati.
Naturalmente, i modelli open-source sono anche più economici e consentono alle imprese, agli istituti di ricerca, agli studenti e ad altri utenti di creare un livello di proprietà e sovranità nelle loro soluzioni.
Gli sviluppatori commerciali di IA sono guidati da preoccupazioni genuine per uno sviluppo sicuro ed etico dell'IA o sono in parte manovre strategiche per mantenere il dominio del mercato e il controllo sull'innovazione dell'IA?
L'intersezione tra altruismo, politica e commercio nel settore dell'IA è eccezionalmente complessa. Con il progredire dell'IA, la conciliazione di questi diversi interessi continuerà a dividere le opinioni.