I recenti eventi di OpenAI hanno messo in evidenza le ideologie dell'"altruismo effettivo" e della sua propaggine, il "lungimiranza".
Ma wCosa significano queste "filosofie"? E come stanno influenzando la politica e la governance dell'IA?
OpenAI è stata inizialmente fondata come no-profit. Poi, nel 2019, è diventata una società "capped" for-profit, definita come una "partnership tra la nostra Nonprofit originale e un nuovo braccio capped profit".
Una volta che l'azienda ha saputo su cosa era seduta, ha non sarebbe rimasto per sempre lontano dagli investitori e dai profitti, dopotutto.
Dal 2019, il ruolo dell'altruismo effettivo, che era alla base della missione di OpenAI, è svanito.
Che cos'è l'altruismo effettivo?
L'altruismo effettivo è una filosofia moderna fondata non molto tempo fa da accademici dell'Università di Oxford come William MacAskill e Toby Ord.
In poche parole, cerca di massimizzare l'impatto positivo sul pianeta in senso generale, definito come "usare l'evidenza e la ragione per capire come beneficiare gli altri il più possibile, e agire su questa base".
Il suo sottoinsieme, il long-termismo, si concentra sulla riduzione dei rischi esistenziali per garantire il benessere delle generazioni future. È nato dalle critiche ai governi ciclici e a breve termine. Sostiene che l'attuale governance non consente il tipo di azione sistematica e coerente di cui abbiamo bisogno per sostenere il nostro pianeta.
OpenAI, fondata con l'obiettivo di sviluppare l'IA per il bene dell'umanità, ha risposto a questi principi.
Tuttavia, l'espansione commerciale dell'azienda e il sostegno agli investimenti, come i $1 miliardi di Microsoft, hanno creato un conflitto tra questi obiettivi altruistici e le esigenze aziendali pratiche.
Ideologia altruistica in OpenAI
Questo scontro di ideologie ha raggiunto un punto di rottura all'interno di OpenAI.
Da un lato c'è il tecno-capitalismo della Silicon Valley, che sostiene idee dirompenti con un enorme capitale di rischio.
Dall'altro c'è l'approccio più lento e cauto che è diventato la posizione de-facto tra i capi dell'AI tech. Cos'altro possono dire di fronte alle pressioni nazionali e internazionali per moderare attentamente i loro prodotti?
Per progredire, l'IA deve placare coloro che ne hanno paura. Mentre c'è un notevole dibattito Se l'Intelligenza Artificiale è davvero pericolosa, resta il fatto che molte persone sono preoccupate.
Questa dicotomia è stata incarnata da Altman che, mentre spingeva OpenAI a diventare una potenza tecnologica, ha anche messo in guardia dalle minacce esistenziali poste dall'IA avanzata. Anche in questo caso, che scelta aveva?
Per rassicurare, Altman ha sottolineato come la struttura di OpenAI proteggesse l'azienda dal percorrere strade più rischiose, ma il suo reintegro come CEO mette a repentaglio tutto ciò. Altman è stato reintegrato con la forza, indipendentemente dal fatto che lo si consideri un atto di solidarietà o meno.
"Sulla carta, il consiglio di amministrazione aveva il potere, questo è il modo in cui Sam Altman l'ha presentato", afferma Toby Ord, uno dei fondatori dell'altruismo efficace e membro del Center for the Governance of AI (CAIS).
Ha continuato: "Invece, una grande quantità di potere sembra risiedere in Altman personalmente, nei dipendenti e in Microsoft".
Dinamiche e sfide del consiglio di amministrazione
Il licenziamento di Altman da parte dei membri del consiglio di amministrazione, alcuni dei quali erano legati al movimento dell'altruismo effettivo, minaccia la capacità di OpenAI di continuare a commercializzarsi come un'azienda innovativa focalizzata sui benefici umanitari.
I membri del Consiglio di Amministrazione sostengono che Altman non sia stato "sincero nelle sue comunicazioni", ma la maggior parte ritiene che non stesse prendendo sul serio la sicurezza.
Il nuovo consiglio di amministrazione di OpenAI, pur essendo per ora vincolato alle stesse regole del precedente, non opporrà la stessa resistenza ad Altman.
La risoluzione di questa crisi, con il ritorno di Altman e il rimpasto del consiglio di amministrazione, lascia domande senza risposta sulla direzione futura dell'azienda e sui suoi principi fondanti. OpenAI si è scatenata: Altman non sarà rimosso finché non avrà finito.
Tuttavia, sarà difficile per OpenAI accelerare con gli sviluppi più rischiosi dell'intelligenza artificiale solo a causa di questo rimpasto del consiglio di amministrazione. Se OpenAI è troppo ottimista, potrebbe accelerare l'azione contro di loro. Sono sotto stretta osservazione da parte di organizzazioni come la FTC già.
Come possono le aziende armonizzare le filosofie altruistiche a lungo termine con le realtà del progresso tecnologico e commerciale?
I due sono compatibili? Sono mai stati compatibili?