Ilya Sutskever, cofondateur et ancien directeur scientifique d'OpenAI, a annoncé le lancement de sa nouvelle entreprise, Safe Superintelligence Inc. (SSI).
Avec ses cofondateurs Daniel Gross de Y Combinator et Daniel Levy, ancien ingénieur d'OpenAI, Sutskever vise à résoudre ce qu'ils considèrent comme le problème le plus critique dans le domaine de l'IA : le développement d'un système d'IA superintelligent sûr et puissant.
M. Sutskever estime que la superintelligence de l'IA, terme vague désignant une IA qui égale ou dépasse l'intelligence humaine, sera possible d'ici dix ans.
Les déclaration de l'entrepriseLa superintelligence est à portée de main", peut-on lire sur le site X de Sutskever. Construire une superintelligence sûre (SSI) est le problème technique le plus important de notre époque. Nous avons créé le premier laboratoire SSI au monde, avec un seul objectif et un seul produit : une superintelligence sûre".
Je crée une nouvelle entreprise : https://t.co/BG3K3SI3A1
- Ilya Sutskever (@ilyasut) 19 juin 2024
Les fondateurs décrivent SSI comme étant non seulement leur mission, mais aussi leur nom et l'ensemble de leur feuille de route.
"SSI est notre mission, notre nom et l'ensemble de notre feuille de route, car c'est notre unique objectif. Notre équipe, nos investisseurs et notre modèle d'entreprise sont tous alignés sur la réalisation de SSI", peut-on lire dans la déclaration.
Une antithèse à l'OpenAI ?
Bien que M. Sutskever et le PDG d'OpenAI, Sam Altman, aient publiquement exprimé leur respect mutuel, des événements récents laissent entrevoir des tensions sous-jacentes.
Sutskever a joué un rôle déterminant dans la tentative d'éviction AltmanIl a déclaré plus tard qu'il le regrettait. Sutskever a officiellement démissionné en mai, après avoir gardé un profil public bas qui a laissé les gens s'interroger sur ses allées et venues.
Après presque dix ans, j'ai pris la décision de quitter l'Union européenne. OpenAI. La trajectoire de l'entreprise a été tout simplement miraculeuse, et je suis persuadé qu'elle va continuer à se développer. OpenAI construira une AGI à la fois sûre et bénéfique sous la direction de @sama, @gdb, @miramurati et maintenant, sous le...
- Ilya Sutskever (@ilyasut) 14 mai 2024
Cet incident et le départ d'autres chercheurs importants qui ont invoqué des problèmes de sécurité à l'OpenAI soulèvent des questions quant aux priorités et à l'orientation de l'entreprise.
L'équipe "superalignement" de l'OpenAI, chargée d'aligner l'IA sur les valeurs et les avantages de l'homme, a été pratiquement démantelé après que M. Sutskever et son collègue Jan Leike ont quitté l'entreprise cette année.
La décision de Sutskever de partir semble découler de son désir de poursuivre un projet plus en phase avec sa vision de l'avenir du développement de l'IA - une vision que l'OpenAI ne parvient apparemment pas à concrétiser puisqu'elle s'éloigne de son objectif de développement de l'IA. principes fondateurs.
L'IA au service de la sécurité
Les risques liés à l'IA sont très controversés.
Si l'humanité a un besoin primaire de craindre des systèmes artificiels plus intelligents qu'elle - un sentiment tout à fait légitime - tous les chercheurs en IA ne pensent pas que cela soit possible dans un avenir proche.
Toutefois, il est essentiel de souligner que le fait de négliger les risques aujourd'hui pourrait avoir des conséquences désastreuses à l'avenir.
SSI a l'intention de s'attaquer à la sécurité en même temps qu'au développement de l'IA : "Nous abordons la sécurité et les capacités en tandem, comme des problèmes techniques à résoudre grâce à des percées révolutionnaires en matière d'ingénierie et de science. Nous prévoyons de faire progresser les capacités aussi rapidement que possible tout en veillant à ce que notre sécurité reste toujours en tête", expliquent les fondateurs.
Nous poursuivrons une superintelligence sûre en ligne droite, avec un seul objectif, un seul but et un seul produit. Nous y parviendrons grâce à des percées révolutionnaires réalisées par une petite équipe de choc. Rejoignez-nous : https://t.co/oYL0EcVED2
- Ilya Sutskever (@ilyasut) 19 juin 2024
Cette approche permet à SSI de "s'agrandir en paix", sans se laisser distraire par les frais généraux de gestion, les cycles de production et les pressions commerciales à court terme.
"Notre objectif unique signifie que nous ne sommes pas distraits par les frais généraux de gestion ou les cycles de production, et notre modèle d'entreprise signifie que la sûreté, la sécurité et le progrès sont tous isolés des pressions commerciales à court terme", souligne la déclaration.
Constituer une équipe de rêve
Pour atteindre ses objectifs, SSI est en train de constituer une "équipe allégée et fissurée, composée des meilleurs ingénieurs et chercheurs du monde, qui se consacre exclusivement à SSI".
"Nous sommes une entreprise américaine avec des bureaux à Palo Alto et Tel Aviv, où nous avons des racines profondes et la capacité de recruter les meilleurs talents techniques", indique le communiqué.
"Si c'est votre cas, nous vous offrons la possibilité de faire le travail de votre vie et de contribuer à résoudre le défi technique le plus important de notre époque".
Avec SSI, un nouvel acteur vient s'ajouter au domaine toujours plus vaste de l'IA.
Il sera très intéressant de voir qui rejoindra SSI, et en particulier s'il y a un fort mouvement de talents en provenance d'OpenAI.