OpenAI a signé un accord inédit avec le gouvernement américain pour collaborer à la recherche et à l'évaluation de la sécurité de l'IA.
Jeudi, la Commission européenne a annoncé que le gouvernement américain avait l'intention de mettre en place un programme d'aide à l'emploi pour les personnes handicapées. Institut pour la sécurité de l'intelligence artificiellequi fait partie du National Institute of Standards and Technology (NIST), a annoncé qu'il avait conclu des accords avec OpenAI et son rival Anthropic.
L'accord intervient alors que l'entreprise serait en pourparlers pour lever des fonds à une valeur stupéfiante de $100 milliards, ce qui montre qu'en dépit d'une période de progrès plus lente, OpenAI continue de foncer vers l'avenir.
Ces partenariats permettront au gouvernement d'avoir un accès privilégié aux nouveaux modèles d'IA avant et après leur diffusion publique, mais il est difficile de savoir exactement à quoi cela correspond.
Il est juste de dire que les développeurs d'IA eux-mêmes ne comprennent pas vraiment comment leurs modèles fonctionnent, de sorte que les bénéfices que le NIST peut en tirer pourraient être limités. Néanmoins, il s'agit d'une tentative d'approfondissement de la surveillance gouvernementale des modèles d'IA secrets et d'avant-garde.
nous sommes heureux d'être parvenus à un accord avec la US AI Safety Institute pour les essais préliminaires de nos futurs modèles.
Pour de nombreuses raisons, nous pensons qu'il est important que cela se fasse au niveau national. US doit continuer à jouer un rôle de premier plan !
- Sam Altman (@sama) 29 août 2024
"Une IA sûre et digne de confiance est cruciale pour l'impact positif de la technologie", a déclaré Jason Kwon, directeur de la stratégie d'OpenAI. "Nous pensons que l'institut a un rôle essentiel à jouer dans la définition du leadership américain en matière de développement responsable de l'intelligence artificielle."
Elizabeth Kelly, directrice de l'Institut américain pour la sécurité de l'IA, a qualifié ces accords d'"étape importante alors que nous nous efforçons de gérer de manière responsable l'avenir de l'IA".
Dans le cadre de cet accord, l'institut fournira à OpenAI un retour d'information sur les améliorations potentielles à apporter à ses modèles en matière de sécurité, en étroite collaboration avec l'Institut britannique pour la sécurité de l'IA, qui a également accès demandé au fonctionnement interne des modèles d'IA.
Les accords ont été longuement mûris dans le cadre des efforts de l'administration Biden pour réglementer l'IA. AAprès la déclaration de Biden décretsignée en octobre 2023, la gouvernance de l'IA aux États-Unis s'est lentement mise en place, même si certains affirment que les progrès ont laissé beaucoup à désirer.
Le moment choisi pour conclure cet accord est remarquable pour deux raisons. Premièrement, il intervient alors qu'OpenAI serait en discussion pour lever un nouveau tour de table de financement qui valoriserait l'entreprise à plus de $100 milliards.
Ce chiffre astronomique représente une multiplication par plus de trois par rapport à l'évaluation de $29 milliards déclarée l'année dernière.
Selon des sources bien informées, la société de capital-risque Thrive Capital devrait mener le tour de table avec un investissement de $1 milliard d'euros. Le géant de la technologie Microsoft, qui est déjà le principal bailleur de fonds d'OpenAI, participerait également au financement.
Deuxièmement, OpenAI serait sur le point de lancer un nouveau produit, GPT -5, RechercheGPTou une autre itération impliquant un nom de code "Projet Fraise."
Le projet Strawberry, initialement appelé Q*, combinerait un modèle d'IA avec un agent d'IA autonome capable de naviguer sur l'internet.
Il est important de noter qu'OpenAI aurait fait une démonstration de fraises aux responsables américains de la sécurité, ce qui pourrait avoir fait partie de ce nouvel accord avec l'Institut de sécurité de l'IA et le NIST.
OpenAI a été plutôt discrète, tout bien considéré. Le GPT-4o a été présenté comme un progrès majeur, mais son joyau - la fonction de chat vocal - n'a pas encore été déployé à grande échelle. OpenAI a invoqué des obstacles réglementaires et de sécurité pour expliquer ce retard.
OpenAI pourrait-elle conclure ce nouveau partenariat pour éviter de tels problèmes à l'avenir ?