Le cofondateur d'OpenAI, Ilya Sutskever, lance une nouvelle société Safe Superintelligence Inc.

20 juin 2024

  • Ilya Sutskever, ancien cofondateur d'OpenAI, a lancé une nouvelle entreprise.
  • Safe Superintelligence Inc. (SSI) a pour objectif de construire des systèmes superintelligents entièrement sûrs.
  • Cette décision intervient alors que l'OpenAI est critiquée pour avoir relégué la sécurité au second plan.
SSI AI

Ilya Sutskever, cofondateur et ancien directeur scientifique d'OpenAI, a annoncé le lancement de sa nouvelle entreprise, Safe Superintelligence Inc. (SSI). 

Avec ses cofondateurs Daniel Gross de Y Combinator et Daniel Levy, ancien ingénieur d'OpenAI, Sutskever vise à résoudre ce qu'ils considèrent comme le problème le plus critique dans le domaine de l'IA : le développement d'un système d'IA superintelligent sûr et puissant.

M. Sutskever estime que la superintelligence de l'IA, terme vague désignant une IA qui égale ou dépasse l'intelligence humaine, sera possible d'ici dix ans.

Les déclaration de l'entrepriseLa superintelligence est à portée de main", peut-on lire sur le site X de Sutskever. Construire une superintelligence sûre (SSI) est le problème technique le plus important de notre époque. Nous avons créé le premier laboratoire SSI au monde, avec un seul objectif et un seul produit : une superintelligence sûre".

Les fondateurs décrivent SSI comme étant non seulement leur mission, mais aussi leur nom et l'ensemble de leur feuille de route. 

"SSI est notre mission, notre nom et l'ensemble de notre feuille de route, car c'est notre unique objectif. Notre équipe, nos investisseurs et notre modèle d'entreprise sont tous alignés sur la réalisation de SSI", peut-on lire dans la déclaration.

Une antithèse à l'OpenAI ?

Bien que M. Sutskever et le PDG d'OpenAI, Sam Altman, aient publiquement exprimé leur respect mutuel, des événements récents laissent entrevoir des tensions sous-jacentes. 

Sutskever a joué un rôle déterminant dans la tentative d'éviction AltmanIl a déclaré plus tard qu'il le regrettait. Sutskever a officiellement démissionné en mai, après avoir gardé un profil public bas qui a laissé les gens s'interroger sur ses allées et venues. 

Cet incident et le départ d'autres chercheurs importants qui ont invoqué des problèmes de sécurité à l'OpenAI soulèvent des questions quant aux priorités et à l'orientation de l'entreprise. 

L'équipe "superalignement" de l'OpenAI, chargée d'aligner l'IA sur les valeurs et les avantages de l'homme, a été pratiquement démantelé après que M. Sutskever et son collègue Jan Leike ont quitté l'entreprise cette année. 

La décision de Sutskever de partir semble découler de son désir de poursuivre un projet plus en phase avec sa vision de l'avenir du développement de l'IA - une vision que l'OpenAI ne parvient apparemment pas à concrétiser puisqu'elle s'éloigne de son objectif de développement de l'IA. principes fondateurs

L'IA au service de la sécurité

Les risques liés à l'IA sont très controversés. 

Si l'humanité a un besoin primaire de craindre des systèmes artificiels plus intelligents qu'elle - un sentiment tout à fait légitime - tous les chercheurs en IA ne pensent pas que cela soit possible dans un avenir proche. 

Toutefois, il est essentiel de souligner que le fait de négliger les risques aujourd'hui pourrait avoir des conséquences désastreuses à l'avenir.

SSI a l'intention de s'attaquer à la sécurité en même temps qu'au développement de l'IA : "Nous abordons la sécurité et les capacités en tandem, comme des problèmes techniques à résoudre grâce à des percées révolutionnaires en matière d'ingénierie et de science. Nous prévoyons de faire progresser les capacités aussi rapidement que possible tout en veillant à ce que notre sécurité reste toujours en tête", expliquent les fondateurs.

Cette approche permet à SSI de "s'agrandir en paix", sans se laisser distraire par les frais généraux de gestion, les cycles de production et les pressions commerciales à court terme. 

"Notre objectif unique signifie que nous ne sommes pas distraits par les frais généraux de gestion ou les cycles de production, et notre modèle d'entreprise signifie que la sûreté, la sécurité et le progrès sont tous isolés des pressions commerciales à court terme", souligne la déclaration.

Constituer une équipe de rêve

Pour atteindre ses objectifs, SSI est en train de constituer une "équipe allégée et fissurée, composée des meilleurs ingénieurs et chercheurs du monde, qui se consacre exclusivement à SSI". 

"Nous sommes une entreprise américaine avec des bureaux à Palo Alto et Tel Aviv, où nous avons des racines profondes et la capacité de recruter les meilleurs talents techniques", indique le communiqué. 

"Si c'est votre cas, nous vous offrons la possibilité de faire le travail de votre vie et de contribuer à résoudre le défi technique le plus important de notre époque".

Avec SSI, un nouvel acteur vient s'ajouter au domaine toujours plus vaste de l'IA.

Il sera très intéressant de voir qui rejoindra SSI, et en particulier s'il y a un fort mouvement de talents en provenance d'OpenAI.

Rejoindre l'avenir


SOUSCRIRE AUJOURD'HUI

Clair, concis, complet. Maîtrisez les développements de l'IA avec DailyAI

Sam Jeans

Sam est un rédacteur scientifique et technologique qui a travaillé dans diverses start-ups spécialisées dans l'IA. Lorsqu'il n'écrit pas, on peut le trouver en train de lire des revues médicales ou de fouiller dans des boîtes de disques vinyles.

×

PDF GRATUIT EXCLUSIF
Gardez une longueur d'avance avec DailyAI

Inscrivez-vous à notre newsletter hebdomadaire et recevez un accès exclusif au dernier eBook de DailyAI : 'Mastering AI Tools : Your 2024 Guide to Enhanced Productivity" (Maîtriser les outils de l'IA : votre guide 2024 pour une meilleure productivité).

*En vous abonnant à notre lettre d'information, vous acceptez nos conditions d'utilisation. Politique de confidentialité et notre Conditions générales d'utilisation