La World Ethical Data Foundation, qui compte plus de 25 000 membres, dont des professionnels de grandes entreprises technologiques telles que Meta, Google et Samsung, a créé un cadre ouvert pour le développement éthique de l'IA.
Le nouveau cadre proposé présente une liste de questions en 84 points portant sur trois processus clés de développement de l'IA :
- Sélection et ingestion des données
- Création ou sélection d'algorithmes et de modèles
- Gestion des données de test et marquage
La lettre ouverte décrit le projet "Me-We-It : Une norme ouverte pour une IA responsable", qui vise à rationaliser le développement de l'IA tout en le rendant transparent, éthique et inclusif.
Simple et non technique, il est conçu pour favoriser le débat sur le développement de l'IA.
Vous pouvez consultez et signez la lettre ici.
La proposition répond également au besoin pressant des décideurs politiques de suivre l'évolution de la réglementation en matière d'IA. Il affirme que, si une législation telle que la loi européenne sur l'IA est essentielle, la communauté technologique peut créer de manière proactive des normes applicables pour un développement éthique de l'IA.
Selon Vince Lynch, conseiller auprès du conseil d'administration de la World Ethical Data Foundation, la communauté de l'IA se trouve actuellement au "stade du Far West, où il s'agit simplement de 'lancer les choses au grand jour et de voir comment cela se passe'" : Il s'agit en quelque sorte de "lancer les choses au grand jour et de voir comment cela se passe".
M. Lynch, qui est à l'origine de ce cadre, met en garde contre les problèmes liés à l'IA concernant la propriété intellectuelle et les droits de l'homme, qui posent des risques immédiats au même titre que les "deep fakes" et les fraudes soutenues par l'IA.
Cadres ouverts sur l'IA : à quoi bon ?
Les cadres ouverts et volontaires encouragent le débat, mais il est difficile de savoir s'ils débouchent sur une action concrète.
Le PDG d'OpenAI, Sam Altman, a déjà plaidé en faveur d'un système d'information sur la santé. cadre ouvert L'Union européenne a également adopté des mesures de protection de l'environnement en matière d'IA, à l'instar de ce qui a été observé dans d'autres secteurs d'activité. D'autres dirigeants du secteur technologique et des fonctionnaires de l'UE ont appelé à une réglementation provisoire afin de faire respecter les règles avant l'entrée en vigueur d'une législation telle que la loi sur l'IA de l'UE.
Jusqu'à présent, le développement de l'IA s'est déroulé comme d'habitude. des entreprises comme Inflection mettent en place une infrastructure de formation à l'IA colossale qui dépasse tout ce que nous avons vu jusqu'à présent.
L'UE a exhorté les entreprises technologiques à prendre des mesures sur les contenus d'IA spécifiquement nuisibles, y compris les "deep fakes", qui enfreignent déjà des règles telles que la loi sur les services numériques de l'UE.
Lorsque les dirigeants de l'UE et des États-Unis s'est réunie en Suède à la fin du mois de maiIls ont discuté d'une éventuelle réglementation visant à ralentir le développement de l'IA, mais rien ne prouve que la trajectoire de la technologie ait changé.
Le problème des règles volontaires est qu'elles ne sont que volontaires. Les entreprises du secteur de l'IA soutiendraient probablement qu'elles répondent déjà aux questions posées par la Fondation mondiale pour l'éthique des données (World Ethical Data Foundation).
Même les règles obligatoires ne garantissent pas la réalisation de leurs objectifs, et l'atténuation des risques liés à l'IA est un travail en cours.