Le conseil d'administration de l'OpenAI crée un comité de sûreté et de sécurité

29 mai 2024

  • Le conseil d'administration de l'OpenAI a créé un comité de sûreté et de sécurité chargé de mettre au point des processus et des mesures de protection.
  • Le comité conseillera le conseil d'administration sur les décisions critiques en matière de sûreté et de sécurité.
  • OpenAI déclare avoir commencé à former son modèle "next frontier" avec des "capacités de niveau supérieur".

Le conseil d'administration de l'OpenAI a annoncé la formation d'un comité de sûreté et de sécurité chargé de formuler des recommandations sur les décisions critiques en matière de sûreté et de sécurité pour tous les projets de l'OpenAI.

Le comité est dirigé par les directeurs Bret Taylor (président), Adam D'Angelo, Nicole Seligman et Sam Altman, PDG d'OpenAI.

Aleksander Madry (responsable de la préparation), Lilian Weng (responsable des systèmes de sécurité), John Schulman (responsable de la science de l'alignement), Matt Knight (responsable de la sécurité) et Jakub Pachocki (scientifique en chef) feront également partie du comité.

L'approche de l'OpenAI en matière de sécurité de l'IA a fait l'objet de critiques externes et internes. Le licenciement d'Altman l'année dernière a été soutenu par Ilya Sutskever, alors membre du conseil d'administration, et par d'autres, apparemment pour des raisons de sécurité.

La semaine dernière, Sutskever et Jan Leike, de l'équipe "superalignment" de l'OpenAI a quitté l'entreprise. M. Leike a spécifiquement mentionné les questions de sécurité comme raison de son départ, déclarant que l'entreprise laissait la sécurité "s'effacer devant les produits brillants".

Hier, M. Leike a annoncé qu'il rejoignait Anthropic pour travailler sur la surveillance et la recherche d'alignement.

Aujourd'hui, M. Altman a non seulement repris ses fonctions de PDG, mais il siège également au comité chargé de mettre en lumière les problèmes de sécurité. Helen Toner, ancien membre du conseil d'administration, explique pourquoi M. Altman a été licencié. On peut donc se demander dans quelle mesure il sera transparent sur les problèmes de sécurité découverts par le comité.

Apparemment, le conseil d'administration d'OpenAI a appris la publication de ChatGPT via Twitter.

Le comité de sûreté et de sécurité utilisera les 90 prochains jours pour évaluer et développer davantage les processus et les garanties de l'OpenAI.

Les recommandations seront soumises à l'approbation du conseil d'administration d'OpenAI, qui s'est engagé à publier les recommandations de sécurité adoptées.

Cette demande de garde-fous supplémentaires intervient alors que l'OpenAI déclare avoir commencé à former son prochain modèle frontière qui, selon elle, "nous amènera au niveau suivant de capacités sur notre chemin vers l'AGI".

Aucune date de sortie n'a été communiquée pour le nouveau modèle, mais la formation à elle seule prendra probablement des semaines, voire des mois.

Dans une mise à jour de son approche de la sécurité publiée après le sommet de Séoul sur l'IA, l'OpenAI a déclaré : "Nous ne publierons pas un nouveau modèle s'il franchit un seuil de risque "moyen" dans notre cadre de préparation, jusqu'à ce que nous mettions en œuvre des interventions de sécurité suffisantes pour ramener le score après atténuation à "moyen"".

Elle a indiqué que plus de 70 experts externes ont été impliqués dans le red teaming GPT-4o avant sa sortie.

Avec 90 jours avant que le comité ne présente ses conclusions au conseil d'administration, une formation qui n'a commencé que récemment et un engagement à mettre en place une équipe d'experts, il semble que nous devions attendre longtemps avant d'obtenir enfin le GPT-5.

Ou veulent-ils dire qu'ils viennent de commencer la formation GPT-6 ?

 

Rejoindre l'avenir


SOUSCRIRE AUJOURD'HUI

Clair, concis, complet. Maîtrisez les développements de l'IA avec DailyAI

Eugène van der Watt

Eugene a une formation d'ingénieur en électronique et adore tout ce qui touche à la technologie. Lorsqu'il fait une pause dans sa consommation d'informations sur l'IA, vous le trouverez à la table de snooker.

×

PDF GRATUIT EXCLUSIF
Gardez une longueur d'avance avec DailyAI

Inscrivez-vous à notre newsletter hebdomadaire et recevez un accès exclusif au dernier eBook de DailyAI : 'Mastering AI Tools : Your 2024 Guide to Enhanced Productivity" (Maîtriser les outils de l'IA : votre guide 2024 pour une meilleure productivité).

*En vous abonnant à notre lettre d'information, vous acceptez nos conditions d'utilisation. Politique de confidentialité et notre Conditions générales d'utilisation