Le PDG d'OpenAI, Sam Altman, plaisante en affirmant que l'AGI a été "réalisée en interne"

27 septembre 2023

Altman AI

Le PDG d'OpenAI, Sam Altman, a suscité l'émoi de la communauté technologique en annonçant que l'intelligence artificielle générale (AGI) avait été "réalisée en interne", avant de déclarer plus tard qu'il s'agissait d'un "mème".

Sam Altman n'est pas aussi controversé qu'Elon Musk, mais il est devenu une figure quelque peu polarisante pour une plaisanterie que certains jugent inappropriée. Après tout, il pourrait être considéré comme l'une des personnes les plus influentes dans le domaine de la technologie. 

La blague de M. Altman a été publiée sur le forum Reddit r/singularity, où il a déclaré : "L'AGI a été réalisée en interne". 

L'AGI, abréviation d'intelligence artificielle générale, désigne les systèmes d'intelligence artificielle qui égalent, voire dépassent, les capacités cognitives humaines. OpenAI se définit désormais comme un développeur d'AGI et entend être le premier à "percer" dans ce paradigme. 

Altman a rapidement modifié sa déclaration désinvolte, en ajoutant une mise en garde : "De toute évidence, il s'agit juste d'un mème, vous n'avez pas froid aux yeux, lorsque l'AGI sera atteint, il ne sera pas annoncé par un commentaire sur Reddit". 

De nombreuses personnes se sont rendues sur Reddit et X pour accuser Altman de troller. - Il est peut-être un peu déconcertant de constater que des personnes s'inquiètent réellement de l'avenir de l'IA.

La "singularité"

Le forum, r/singularitéIl s'agit du moment où l'intelligence informatique pourrait éclipser l'intelligence humaine, entraînant des changements imprévisibles et irréversibles dans le monde tel que nous le connaissons.

La toile de fond de ce commentaire est un scénario hypothétique écrit par le philosophe de l'Université d'Oxford Nick Bostrom dans son livre influent de 2014, "La superintelligence : Voies, dangers, stratégies.” 

Bostrom décrit les risques existentiels que pourrait poser une IA ultra-avancée. L'une de ses expériences de pensée, connue sous le nom de Paperclip Maximiser, dépeint l'image d'une IA dont l'intention innocente - produire autant de trombones que possible - pourrait conduire par inadvertance à la chute de l'humanité.

Il explique que l'IA considérerait les corps humains comme des sources précieuses d'atomes pour fabriquer des trombones.

Dans un clin d'œil humoristique à cette expérience de pensée, à la suite du billet de M. Altman, Will Depue, chercheur à l'OpenAI, a partagé sur Twitter une image créée par l'IA montrant "les bureaux de l'OpenAI débordant de trombones".

Bostrom affirme également que "l'IA réalisera rapidement qu'il serait préférable qu'il n'y ait pas d'humains, car les humains pourraient décider de l'éteindre". 

Il s'agit d'une intrigue de science-fiction familière - les machines de la Matrice ont commencé à prélever des êtres humains à des fins énergétiques, par exemple. 

Comme le dit Morpheus, "le corps humain génère plus de bioélectricité qu'une batterie de 120 volts et plus de 25 000 BTU de chaleur corporelle". Bostrum estime que l'IA pourrait parvenir à de telles conclusions si elle était provoquée dans les scénarios appropriés. 

Le remplacement de l'humanité par des trombones serait un destin pour le moins étrange pour la race humaine.

Rejoindre l'avenir


SOUSCRIRE AUJOURD'HUI

Clair, concis, complet. Maîtrisez les développements de l'IA avec DailyAI

Sam Jeans

Sam est un rédacteur scientifique et technologique qui a travaillé dans diverses start-ups spécialisées dans l'IA. Lorsqu'il n'écrit pas, on peut le trouver en train de lire des revues médicales ou de fouiller dans des boîtes de disques vinyles.

×

PDF GRATUIT EXCLUSIF
Gardez une longueur d'avance avec DailyAI

Inscrivez-vous à notre newsletter hebdomadaire et recevez un accès exclusif au dernier eBook de DailyAI : 'Mastering AI Tools : Your 2024 Guide to Enhanced Productivity" (Maîtriser les outils de l'IA : votre guide 2024 pour une meilleure productivité).

*En vous abonnant à notre lettre d'information, vous acceptez nos conditions d'utilisation. Politique de confidentialité et notre Conditions générales d'utilisation