Sam Altman estime qu'une agence internationale devrait contrôler les modèles d'IA

13 mai 2024

  • Sam Altman, PDG de l'OpenAI, estime qu'une agence internationale devrait contrôler les modèles d'IA les plus puissants.
  • Selon M. Altman, les futurs modèles d'IA d'avant-garde pourraient être capables de causer des dommages considérables à l'échelle mondiale.
  • La législation n'est peut-être pas assez souple pour tenir compte de l'évolution rapide des technologies de l'IA

OpenAI PDG, Sam AltmanLe rapport de la Commission européenne sur la sécurité des modèles d'intelligence artificielle (IA), qui a été publié en mars 2009, indique qu'une agence internationale devrait être mise en place pour surveiller les futurs modèles d'IA puissants et novateurs afin de garantir la sécurité.

Lors d'une interview sur le podcast All-In, Altman a déclaré que nous verrons bientôt des modèles d'IA d'avant-garde qui seront nettement plus puissants et potentiellement plus dangereux.

Altman a déclaré : "Je pense qu'il arrivera un jour, dans un avenir pas si lointain que cela, c'est-à-dire dans des dizaines et des dizaines d'années, où les systèmes d'IA de pointe seront capables de causer des dommages considérables à l'échelle mondiale."

Les US et L'UE Les autorités nationales ont toutes deux adopté des lois visant à réglementer l'IA. Altman ne croit pas qu'une législation rigide puisse suivre la rapidité des progrès de l'IA. Il est également critique à l'égard des US les États qui tentent de réglementer l'IA de manière indépendante.

En parlant de systèmes d'IA avancés anticipés, Altman Et pour ces types de systèmes, de la même manière que nous avons une surveillance mondiale des armes nucléaires ou des produits biologiques synthétiques ou d'autres choses qui peuvent vraiment avoir un impact très négatif bien au-delà du domaine d'un seul pays.

J'aimerais qu'une agence internationale examine les systèmes les plus puissants et garantisse des tests de sécurité raisonnables.

Altman a déclaré que ce type de surveillance internationale serait nécessaire pour empêcher une IA superintelligente de "s'échapper et de s'auto-améliorer de manière récursive".

Altman a reconnu que si la surveillance des modèles d'IA puissants est nécessaire, une réglementation excessive de l'IA pourrait étouffer le progrès.

L'approche qu'il propose est similaire à la réglementation nucléaire internationale. L'Agence internationale de l'énergie atomique supervise les États membres qui ont accès à des quantités importantes de matières nucléaires.

"Si la ligne selon laquelle nous n'examinerons que les modèles formés sur des ordinateurs qui coûtent plus de 10 milliards ou plus de 100 milliards de dollars, ou autre, je serais d'accord avec cela. Il y a une limite à ne pas dépasser. Et je ne pense pas que cela impose un fardeau réglementaire aux start-ups", a-t-il expliqué.

Altman a expliqué pourquoi il estimait que l'approche de l'agence était préférable à la tentative de légiférer sur l'IA.

"La raison pour laquelle j'ai insisté sur une approche basée sur les agences, c'est pour avoir une vue d'ensemble et ne pas... écrire dans des lois,... dans 12 mois, tout sera mal écrit... Et je ne pense pas que même si ces personnes étaient de véritables experts mondiaux, je ne pense pas qu'ils pourraient faire les choses correctement. Dans 12 ou 24 mois", a-t-il déclaré.

Quand le GPT-5 sera-t-il publié ?

Interrogé sur la date de sortie du GPT-5, Altman s'est montré, comme on pouvait s'y attendre, peu coopératif, mais a laissé entendre que les choses ne se passeraient peut-être pas comme nous le pensons.

"Nous prenons notre temps lorsque nous sortons des modèles majeurs... Aussi, je ne sais pas si nous l'appellerons GPT-5", a-t-il déclaré.

Altman a mis l'accent sur les améliorations itératives OpenAI a fait sur le GPT-4 et a déclaré que cela indique mieux la façon dont l'entreprise déploiera les améliorations futures.

Il semble donc que nous ayons moins de chances de voir une version "GPT-5" et plus de chances de voir des fonctionnalités supplémentaires ajoutées à GPT-4.

Nous devrons attendre OpenAILes annonces de mise à jour du site Internet de la Commission européenne seront publiées plus tard dans la journée pour voir si nous obtenons d'autres indices sur ce que nous voulons faire de l'avenir. ChatGPT les changements auxquels nous pouvons nous attendre.

Si vous souhaitez écouter l'intégralité de l'entretien, vous pouvez écouter ici.

Rejoindre l'avenir


SOUSCRIRE AUJOURD'HUI

Clair, concis, complet. Maîtrisez les développements de l'IA avec DailyAI

Eugène van der Watt

Eugene a une formation d'ingénieur en électronique et adore tout ce qui touche à la technologie. Lorsqu'il fait une pause dans sa consommation d'informations sur l'IA, vous le trouverez à la table de snooker.

×

PDF GRATUIT EXCLUSIF
Gardez une longueur d'avance avec DailyAI

Inscrivez-vous à notre newsletter hebdomadaire et recevez un accès exclusif au dernier eBook de DailyAI : 'Mastering AI Tools : Your 2024 Guide to Enhanced Productivity" (Maîtriser les outils de l'IA : votre guide 2024 pour une meilleure productivité).

*En vous abonnant à notre lettre d'information, vous acceptez nos conditions d'utilisation. Politique de confidentialité et notre Conditions générales d'utilisation