OpenAI s'est retrouvée au centre d'une enquête sénatoriale suite à des allégations de tests de sécurité précipités.
Cinq sénateurs, menés par Brian Schatz (D-Hawaii), ont exigé que l'entreprise fournisse des informations détaillées sur ses pratiques en matière de sécurité et sur les accords conclus avec ses employés.
L'enquête intervient à la suite d'une Rapport du Washington Post suggérant qu'OpenAI pourrait avoir compromis les protocoles de sécurité dans sa précipitation à lancer GPT-4 Omni, son dernier modèle d'IA.
Pendant ce temps, des dénonciateurs, y compris des chercheurs de haut niveau de l'OpenAI's démantelée "l'équipe de superalignement". ont soulevé des inquiétudes concernant les accords de non-divulgation (NDA) restrictifs conclus avec les employés.
Lettre des sénateurs à OpenAI
Dans une lettre ferme adressée au PDG d'OpenAI, Sam Altman, cinq sénateurs ont demandé des informations détaillées sur les pratiques de l'entreprise en matière de sécurité et sur le traitement de ses employés.
Les lettre soulève des inquiétudes quant à l'engagement d'OpenAI en faveur d'un développement responsable de l'IA et quant à ses politiques internes.
"Compte tenu de la position d'OpenAI en tant qu'entreprise leader dans le domaine de l'IA, il est important que le public puisse avoir confiance dans la sûreté et la sécurité de ses systèmes", écrivent les sénateurs.
Ils poursuivent en mettant en doute "l'intégrité de la structure de gouvernance et des tests de sécurité de l'entreprise, ses pratiques en matière d'emploi, sa fidélité à ses promesses publiques et à sa mission, ainsi que ses politiques en matière de cybersécurité".
Les sénateurs, menés par Brian Schatz (D-Hawaii), ont fixé au 13 août la date limite pour qu'OpenAI réponde à une série de questions précises. Il s'agit notamment de savoir si l'entreprise respectera son engagement de consacrer 20% de ressources informatiques à la recherche sur la sécurité de l'IA et si elle autorisera des experts indépendants à tester ses systèmes avant leur mise sur le marché.
En ce qui concerne les accords restrictifs conclus avec les employés, la lettre demande à OpenAI de confirmer qu'elle "n'appliquera pas d'accords permanents de non-dénigrement pour les employés actuels et anciens" et de s'engager à "supprimer toute autre disposition des contrats de travail qui pourrait être utilisée pour pénaliser les employés qui soulèvent publiquement des préoccupations concernant les pratiques de l'entreprise".
OpenAI s'est ensuite rendu sur X pour rassurer le public sur son engagement en matière de sécurité.
"Pour que l'IA profite à tous, il faut d'abord qu'elle soit utile et sûre. Nous souhaitons partager quelques mises à jour sur la manière dont nous donnons la priorité à la sécurité dans notre travail", a déclaré l'entreprise dans un message récent.
L'OpenAI a mis l'accent sur son cadre de préparation, conçu pour évaluer et protéger contre les risques posés par des modèles d'IA de plus en plus puissants.
Nous ne commercialiserons pas un nouveau modèle s'il présente un risque "moyen" tant que nous ne serons pas sûrs de pouvoir le faire en toute sécurité", a assuré l'entreprise.
En réponse aux allégations d'accords restrictifs avec les employés, OpenAI a déclaré : "Notre politique de dénonciation protège les droits des employés à faire des divulgations protégées. Nous pensons également qu'un débat rigoureux sur cette technologie est important et nous avons modifié notre processus de départ pour supprimer les clauses de non-dénigrement".
L'entreprise a également mentionné les mesures prises récemment pour renforcer ses mesures de sécurité.
En mai, le conseil d'administration de l'OpenAI a créé un nouveau comité de sûreté et de sécurité, composé des membres suivants à la retraite US Général d'armée Paul Nakasoneun expert en cybersécurité de premier plan.
OpenAI maintient sa position sur les avantages de l'IA. "Nous pensons que les modèles d'IA d'avant-garde peuvent grandement bénéficier à la société", a déclaré l'entreprise, tout en reconnaissant la nécessité de rester vigilant et de prendre des mesures de sécurité.
Malgré quelques progrès, les chances d'adopter une législation complète sur l'IA cette année sont faibles, l'attention se tournant vers les élections de 2024.
En l'absence de nouvelles lois adoptées par le Congrès, la Maison-Blanche s'est largement appuyée sur les lois de l'Union européenne. engagements volontaires des entreprises d'IA pour s'assurer qu'elles créent des systèmes d'IA sûrs et dignes de confiance.