L'altruisme efficace, le long terme et la politique dans l'OpenAI

24 novembre 2023

OpenAI

Les récents événements survenus à l'OpenAI ont mis en lumière les idéologies de l'"altruisme efficace" et de sa ramification, le "long-termisme".

Mais wQue signifient ces "philosophies" ? Et comment affectent-ils la politique et la gouvernance de l'IA ?

OpenAI a été initialement fondée en tant qu'organisation à but non lucratif. Puis, en 2019, elle est devenue un organisme à but lucratif "plafonné", défini comme un "partenariat entre notre organisme à but non lucratif d'origine et une nouvelle branche à but lucratif plafonné".

Une fois que l'entreprise a su sur quoi elle était assise, elle a n'allait pas rester éternellement à l'écart des investisseurs et des bénéfices, après tout.

Depuis 2019, le rôle de l'altruisme efficace, qui sous-tendait la mission d'OpenAI, s'est estompé.

Qu'est-ce que l'altruisme efficace ?

L'altruisme efficace est une philosophie moderne fondée il y a peu par des universitaires de l'Université d'Oxford tels que William MacAskill et Toby Ord. 

En bref, elle cherche à maximiser l'impact positif sur la planète dans un sens général, défini comme "l'utilisation de preuves et de la raison pour comprendre comment bénéficier aux autres autant que possible, et prendre des mesures sur cette base".

Son sous-ensemble, le long-termisme, se concentre sur la réduction des risques existentiels pour assurer le bien-être des générations futures. Il est né des critiques formulées à l'encontre des gouvernements cycliques et à court terme. Il affirme que la gouvernance actuelle ne permet pas le type d'action systématique et cohérente dont nous avons besoin pour soutenir notre planète. 

L'OpenAI, fondée avec l'objectif ambitieux de développer l'IA au profit de l'humanité, s'est ralliée à ces principes. 

Cependant, l'expansion commerciale de l'entreprise et le soutien à l'investissement, tel que le $1 milliard de Microsoft, ont créé un conflit entre ces objectifs altruistes et les besoins pratiques de l'entreprise.

L'idéologie altruiste à l'OpenAI

Ce choc des idéologies a atteint un point de rupture à l'intérieur de l'OpenAI

D'un côté, il y a le techno-capitalisme de la Silicon Valley, qui défend des idées perturbatrices grâce à un capital-risque massif. 

D'autre part, l'approche plus lente et plus prudente qui est devenue la position de facto des patrons de la technologie de l'IA. Que peuvent-ils dire d'autre face à la pression nationale et internationale qui les incite à modérer soigneusement leurs produits ? 

Pour que l'IA progresse, elle doit apaiser ceux qui en ont peur. Bien qu'il y ait un débat considérable Si l'on peut se demander si l'IA est réellement dangereuse, il n'en reste pas moins que de nombreuses personnes sont inquiètes.

Cette dichotomie est illustrée par M. Altman, qui, tout en poussant OpenAI à devenir une puissance technologique, a également mis en garde contre les menaces existentielles posées par l'IA avancée. Encore une fois, quel choix avait-il ? 

Pour rassurer, M. Altman a souligné que la structure d'OpenAI protégeait l'entreprise de tout risque, mais sa réintégration en tant que PDG y a mis fin. M. Altman a été réintégré de force, que l'on considère ou non qu'il s'agit d'un acte de solidarité. 

"Sur le papier, le conseil d'administration avait le pouvoir, c'est ainsi que Sam Altman l'a présenté", explique Toby Ord, l'un des fondateurs de l'altruisme efficace et membre du Centre pour la gouvernance de l'IA (CAIS).

Au lieu de cela, une très grande partie du pouvoir semble appartenir à Altman personnellement, ainsi qu'aux employés et à Microsoft". 

Dynamique et défis du conseil d'administration

Le licenciement de M. Altman par les membres du conseil d'administration, dont certains étaient liés au mouvement de l'altruisme efficace, menace la capacité d'OpenAI à continuer à se présenter comme une nouvelle entreprise axée sur les bénéfices humanitaires. 

Les membres du conseil d'administration ont affirmé que M. Altman n'était pas "franc dans ses communications", mais la plupart pensent qu'il ne prenait pas la sécurité au sérieux. 

Le nouveau conseil d'administration d'OpenAI, bien que soumis aux mêmes règles que l'ancien pour le moment, n'opposera pas la même résistance à M. Altman.

La résolution de cette crise, avec le retour d'Altman et le remaniement du conseil d'administration, laisse des questions sans réponse sur l'orientation future de l'entreprise et ses principes fondateurs. OpenAI a été libérée - Altman ne sera pas renvoyé tant qu'il n'aura pas terminé.

Cependant, il sera difficile pour l'OpenAI d'accélérer les développements d'IA plus risqués uniquement en raison de ce remaniement du conseil d'administration. Si l'OpenAI OpenAI est trop optimiste, ils pourraient prendre des mesures contre eux. Ils font l'objet d'une inspection minutieuse de la part de des organisations telles que la FTC

Comment les entreprises peuvent-elles harmoniser les philosophies altruistes à long terme avec les réalités du progrès technologique et commercial ?

Les deux sont-ils compatibles ? Ont-ils jamais été compatibles ? 

Rejoindre l'avenir


SOUSCRIRE AUJOURD'HUI

Clair, concis, complet. Maîtrisez les développements de l'IA avec DailyAI

Sam Jeans

Sam est un rédacteur scientifique et technologique qui a travaillé dans diverses start-ups spécialisées dans l'IA. Lorsqu'il n'écrit pas, on peut le trouver en train de lire des revues médicales ou de fouiller dans des boîtes de disques vinyles.

×

PDF GRATUIT EXCLUSIF
Gardez une longueur d'avance avec DailyAI

Inscrivez-vous à notre newsletter hebdomadaire et recevez un accès exclusif au dernier eBook de DailyAI : 'Mastering AI Tools : Your 2024 Guide to Enhanced Productivity" (Maîtriser les outils de l'IA : votre guide 2024 pour une meilleure productivité).

*En vous abonnant à notre lettre d'information, vous acceptez nos conditions d'utilisation. Politique de confidentialité et notre Conditions générales d'utilisation