Sam Altman, PDG d'OpenAI, relance le débat sur la réglementation de l'IA en prévision de la "superintelligence".
Dans un nouvel article publié sur le site Blog de l'OpenAISam Altman, PDG de l'entreprise, et ses collègues Ilya Sutskever et Greg Brockman discutent de la progression de l'IA vers la "superintelligence", également connue sous le nom d'intelligence artificielle. l'intelligence artificielle générale (AGI).
Cette décision intervient moins d'une semaine après que Sam Altman a témoigné devant le Congrèsqui affirme que l'IA nécessite une réglementation "urgente" pour protéger la société tout en préservant ses avantages.
La superintelligence décrit les IA qui dépassent les capacités cognitives des humains, une étape que Altman, Sutskever et Brockman estiment réalisable dans les dix prochaines années.
Ces IA seraient capables d'une productivité équivalente à celle de certaines des plus grandes entreprises du monde, remodelant la société à des fins tant positives que négatives.
L'article propose trois pistes pour atténuer les risques liés à la superintelligence :
1 : Coordination
Altman, Sutskever et Brockman appellent à une collaboration étroite entre les leaders de l'IA pour maintenir la sécurité et faciliter l'intégration de la superintelligence dans la société.
Cette mesure pourrait être mise en œuvre dans le cadre de projets gouvernementaux ou d'accords mutuels entre entreprises, les leaders de l'IA acceptant de limiter le taux de croissance de l'intelligence de leurs modèles.
2 : Suivi international
Deuxièmement, ils suggèrent de créer une agence internationale de superintelligence, à l'instar de l'Agence internationale de l'énergie atomique (AIEA), fondée en 1957, afin d'atténuer les risques liés à l'émergence de la technologie nucléaire.
Les cadres réglementaires créés par l'agence seraient mis en œuvre sur une base volontaire et par l'intermédiaire des gouvernements nationaux.
3 : Contrôle public
Troisièmement, l'OpenAI appelle à l'engagement du public dans les règles entourant la superintelligence, suggérant que le public devrait superviser les "limites et les défauts" de l'IA par le biais d'un système démocratique.
Altman, Sutskever et Brockman déclarent : "Nous ne savons pas encore comment concevoir un tel mécanisme, mais nous prévoyons d'expérimenter son développement". OpenAI avait déjà décrit Les valeurs par défaut représentent le comportement "prêt à l'emploi" d'une IA et les valeurs limites représentent les limites imposées à ses capacités.
L'OpenAI soutient également que les projets de logiciels libres développés en dessous d'un "seuil" de capacité défini devraient être encouragés.
Ils déclarent : "Nous pensons qu'il serait difficile et risqué d'arrêter la création d'une superintelligence".
Compte tenu de la croissance exponentielle de l'IA au cours de la dernière décennie, les visions de l'OpenAI pour un paysage réglementé de l'IA pourraient s'avérer prémonitoires.
Toutefois, l'industrie de l'IA sera certainement mise à l'épreuve par l'appel à la collaboration lancé par l'entreprise et par sa volonté d'être réglementée. Jusqu'à présent, il y a peu de signes de collaboration croisée entre les leaders de l'IA.
Il sera difficile d'atteindre des objectifs concurrentiels tout en protégeant le public et, si l'on en croit l'OpenAI, c'est maintenant qu'il faut agir face à la superintelligence de l'IA.