La politique du ministère américain du commerce approuve les modèles d'IA "ouverts

30 juillet 2024

  • Le ministère du commerce (DOC) a publié une politique d'ouverture dans le domaine de l'intelligence artificielle.
  • Le rapport appelle à une surveillance active des risques liés à l'IA à double usage, mais soutient les modèles à poids ouvert.
  • Le rapport indique que les modèles ouverts favorisent l'innovation, la transparence et la démocratisation de l'IA.

Le ministère américain du commerce a publié une politique en faveur des modèles ouverts, signe de la position de l'administration Biden-Harris sur cette question controversée.

Les partisans des modèles fermés, comme OpenAI et Google, évoquent les risques des modèles ouverts, tandis que d'autres, comme Meta, s'engagent en faveur de variantes de l'IA à code source ouvert.

Le rapport du DOC rédigée par sa division National Telecommunications and Information Administration (NTIA), embrasse "l'ouverture de l'intelligence artificielle (IA) tout en appelant à une surveillance active des risques dans les modèles d'IA puissants".

Les arguments qui s'opposent à la publication des modèles mettent généralement en avant les risques de double usage, à savoir que des acteurs malveillants puissent plier les modèles à leur volonté néfaste. La politique reconnaît le risque de double usage, mais affirme que les avantages l'emportent sur les risques.

"L'administration Biden-Harris met tout en œuvre pour maximiser les promesses de l'IA tout en minimisant ses risques", a déclaré la secrétaire américaine au commerce, Gina Raimondo.

"Le rapport d'aujourd'hui fournit une feuille de route pour l'innovation responsable en matière d'IA et le leadership américain en adoptant l'ouverture et en recommandant la façon dont le gouvernement américain peut se préparer et s'adapter aux défis potentiels à venir."

Le rapport indique que le gouvernement américain devrait surveiller activement les risques potentiels émergents, mais qu'il devrait s'abstenir de restreindre la disponibilité des modèles à poids ouvert.

Les poids ouverts ouvrent les portes

Tout le monde peut télécharger la dernière version de Meta Modèle Llama 3.1 405B et ses poids. Bien que les données d'entraînement n'aient pas été mises à disposition, le fait de disposer des poids offre aux utilisateurs beaucoup plus d'options qu'ils n'en auraient avec le système GPT-4o ou Claude 3.5 Sonnet par exemple.

L'accès aux poids permet aux chercheurs et aux développeurs d'avoir une meilleure vision de ce qui se passe sous le capot et d'identifier et de rectifier les biais, les erreurs ou les comportements inattendus dans le modèle.

Il est également beaucoup plus facile pour les utilisateurs d'affiner les modèles pour des cas d'utilisation spécifiques, qu'ils soient bons ou mauvais.

Le rapport note que "l'accessibilité offerte par les poids ouverts abaisse considérablement la barrière à l'entrée pour affiner les modèles à des fins tant bénéfiques que néfastes. Les acteurs malveillants peuvent supprimer les garanties des modèles ouverts par le biais d'un réglage fin, puis distribuer librement le modèle, ce qui limite en fin de compte la valeur des techniques d'atténuation".

Les risques et les avantages des modèles d'IA ouverts mis en évidence par le rapport sont notamment les suivants :

  • Sécurité publique
  • Considérations géopolitiques
  • Questions sociétales
  • Concurrence, innovation et recherche

Le rapport reconnaît franchement les risques dans chacun de ces domaines, mais affirme que les avantages l'emportent si les risques sont gérés.

Avec un modèle fermé comme le GPT-4o, nous devons tous croire qu'OpenAI fait du bon travail avec ses efforts d'alignement et ne cache pas les risques potentiels. Avec un modèle à poids ouvert, n'importe quel chercheur peut identifier les vulnérabilités d'un modèle en matière de sûreté et de sécurité ou effectuer un audit par une tierce partie pour s'assurer que le modèle est conforme à la réglementation.

Le rapport indique que "la disponibilité de modèles de pondération pourrait permettre aux pays concernés de développer des écosystèmes d'IA avancée plus robustes... et de compromettre les objectifs de l'UE". Contrôle des puces aux États-Unis."

Toutefois, dans la colonne des points positifs, la mise à disposition de poids modèles "pourrait renforcer la coopération avec les alliés et approfondir les nouvelles relations avec les partenaires en développement".

Le gouvernement américain est clairement convaincu par l'idée de modèles d'IA ouverts, même s'il met en place des réglementations fédérales et étatiques pour réduire les risques liés à la technologie. Si les Trump-Vance gagne les prochaines élections, nous verrons probablement un soutien continu à l'IA ouverte, mais avec encore moins de réglementation.

Les modèles à poids ouvert sont peut-être excellents pour l'innovation, mais si les risques émergents prennent les régulateurs au dépourvu, il ne sera pas possible de remettre le génie de l'IA dans la bouteille.

Rejoindre l'avenir


SOUSCRIRE AUJOURD'HUI

Clair, concis, complet. Maîtrisez les développements de l'IA avec DailyAI

Eugène van der Watt

Eugene a une formation d'ingénieur en électronique et adore tout ce qui touche à la technologie. Lorsqu'il fait une pause dans sa consommation d'informations sur l'IA, vous le trouverez à la table de snooker.

×

PDF GRATUIT EXCLUSIF
Gardez une longueur d'avance avec DailyAI

Inscrivez-vous à notre newsletter hebdomadaire et recevez un accès exclusif au dernier eBook de DailyAI : 'Mastering AI Tools : Your 2024 Guide to Enhanced Productivity" (Maîtriser les outils de l'IA : votre guide 2024 pour une meilleure productivité).

*En vous abonnant à notre lettre d'information, vous acceptez nos conditions d'utilisation. Politique de confidentialité et notre Conditions générales d'utilisation