L'Open Source Initiative n'est pas d'accord avec Meta sur l'IA "ouverte

24 septembre 2024

  • L'Open Source Initiative (OSI) a récemment publié un projet de définition actualisée de l'"IA à code source ouvert"
  • La communauté OSI affirme que les modèles Llama de Meta ne sont pas des logiciels libres, malgré les affirmations de l'entreprise.
  • Un consensus sur ce qu'est l'IA à code source ouvert aura des conséquences juridiques en raison de lois telles que la loi européenne sur l'IA.

L'Open Source Initiative (OSI) a publié un projet de définition actualisé de ce qui constitue l'IA à code source ouvert et affirme que les modèles de Meta ne remplissent pas les conditions requises, malgré les affirmations de l'entreprise.

Mark Zuckerberg s'est exprimé sur l'engagement de Meta en faveur de ce qu'il appelle l'IA à code source ouvert. Toutefois, si les modèles comme Llama 3.1 sont moins opaques que les modèles propriétaires d'OpenAI ou de Google, les discussions au sein de la communauté OSI suggèrent que Meta utilise le terme de manière vague.

Lors d'une événement public en ligne vendredi, l'OSI a discuté des critères auxquels, selon elle, un modèle d'IA véritablement open-source devrait se conformer. L'OSI appelle ces critères les "4 libertés" et affirme qu'une IA à code source ouvert "est un système d'IA mis à disposition dans des conditions et d'une manière qui accordent les libertés à..." :

  1. Utiliser le système à n'importe quelle fin et sans avoir à demander la permission.
  2. Étudier le fonctionnement du système et inspecter ses composants.
  3. Modifier le système à quelque fin que ce soit, y compris pour en modifier les résultats.
  4. Partager le système pour que d'autres puissent l'utiliser, avec ou sans modifications, dans n'importe quel but".

Pour pouvoir modifier un modèle d'IA, il faut que les normes OSI soient respectées. Définition de l'IA ouverte indique que les poids et le code source doivent être ouverts et que l'ensemble des données d'apprentissage doit être disponible.

La licence de Meta impose certaines restrictions quant à l'utilisation de ses modèles et l'entreprise a refusé de divulguer les données d'apprentissage qu'elle a utilisées pour former ses modèles. Si l'on admet que l'OSI est le gardien de la signification du terme "open-source", cela implique que Meta déforme la vérité lorsqu'il qualifie ses modèles d'"ouverts".

L'OSI est une société californienne d'utilité publique qui s'appuie sur les contributions de la communauté pour développer des normes à source ouverte. Certains membres de cette communauté ont accusé Mark Zuckerberg de "laver à ciel ouvert" les modèles de Meta et d'intimider l'industrie pour qu'elle accepte sa version plutôt que la définition de l'OSI.

Shuji Sado, président de l'Open Source Group Japan, a déclaré : "Il est possible que Zuckerberg ait une définition de l'Open Source différente de la nôtre", et a suggéré que le paysage juridique flou concernant les données d'entraînement à l'IA et les droits d'auteur pourrait en être la raison.

L'importance des mots

Tout cela peut sembler être une question de sémantique, mais selon la définition adoptée par l'industrie de l'IA, il pourrait y avoir de graves conséquences juridiques.

Meta a connu des moments difficiles La société Meta est en train de naviguer dans les lois GDPR de l'UE en raison de son appétit insatiable pour les données des médias sociaux des utilisateurs. Certains prétendent que la définition floue de Meta de l'"IA open-source" est une tentative de contourner les nouvelles lois telles que la loi sur la protection des données (GDPR). EU AI Act.

La loi prévoit une exception limitée pour les modèles d'IA à usage général (GPAIM) diffusés sous licence libre. Ces modèles sont exemptés de certaines obligations de transparence, bien qu'ils doivent toujours fournir un résumé du contenu utilisé pour former le modèle.

D'autre part, la proposition de SB 1047 Projet de loi californien sur la sécurité de l'IA dissuade les entreprises comme Meta d'aligner leurs modèles sur la définition de l'OSI. Le projet de loi impose des protocoles de sécurité complexes pour les modèles "ouverts" et tient les développeurs pour responsables des modifications nuisibles et de l'utilisation abusive par de mauvais acteurs.

Le SB 1047 définit les outils d'intelligence artificielle libres comme des "modèles d'intelligence artificielle qui sont mis gratuitement à disposition et qui peuvent être librement modifiés et redistribués". Cela signifie-t-il qu'un modèle d'intelligence artificielle qui peut être affiné par un utilisateur est "ouvert" ou la définition ne s'applique-t-elle que si le modèle coche toutes les cases de l'OSI ?

Pour l'instant, le flou permet à Meta de bénéficier d'avantages commerciaux et d'une marge de manœuvre pour négocier une législation. À un moment donné, l'industrie devra s'engager sur une définition. Sera-t-elle définie par une grande entreprise technologique comme Meta ou par une organisation communautaire comme l'OSI ?

Rejoindre l'avenir


SOUSCRIRE AUJOURD'HUI

Clair, concis, complet. Maîtrisez les développements de l'IA avec DailyAI

Eugène van der Watt

Eugene a une formation d'ingénieur en électronique et adore tout ce qui touche à la technologie. Lorsqu'il fait une pause dans sa consommation d'informations sur l'IA, vous le trouverez à la table de snooker.

×

PDF GRATUIT EXCLUSIF
Gardez une longueur d'avance avec DailyAI

Inscrivez-vous à notre newsletter hebdomadaire et recevez un accès exclusif au dernier eBook de DailyAI : 'Mastering AI Tools : Your 2024 Guide to Enhanced Productivity" (Maîtriser les outils de l'IA : votre guide 2024 pour une meilleure productivité).

*En vous abonnant à notre lettre d'information, vous acceptez nos conditions d'utilisation. Politique de confidentialité et notre Conditions générales d'utilisation