Les entreprises de Big Tech spécialisées dans l'IA lancent un fonds de sécurité de l'IA de $10 millions d'euros

25 octobre 2023

IA générative

Anthropic, Google, Microsoft et OpenAI ont lancé le Frontier Model Forum en juillet et se sont engagés à verser $10 millions d'euros à un fonds de sécurité pour l'IA afin de soutenir l'initiative.

Le Frontier Model Forum a été créé dans le but d'établir des normes de sécurité en matière d'IA et d'évaluer les modèles d'avant-garde afin de garantir un développement responsable. Il semblerait que le groupe se mette enfin au travail, puisqu'il annoncée Chris Meserole comme premier directeur exécutif

M. Meserole possède de solides références en matière d'intelligence artificielle, puisqu'il a récemment occupé le poste de directeur de l'initiative sur l'intelligence artificielle et les technologies émergentes à la Brookings Institution.

Dans une déclaration concernant sa nouvelle nomination, M. Meserols a déclaré : "Les modèles d'IA les plus puissants sont extrêmement prometteurs pour la société, mais pour réaliser leur potentiel, nous devons mieux comprendre comment les développer et les évaluer en toute sécurité. Je suis ravi de relever ce défi avec le Frontier Model Forum".

La mission du forum est de :

  • Faire progresser la recherche sur la sécurité de l'IA afin de promouvoir un développement responsable des modèles d'avant-garde et de minimiser les risques potentiels.
  • Identifier les meilleures pratiques en matière de sécurité pour les modèles pionniers
  • Partager les connaissances avec les décideurs politiques, les universitaires, la société civile et d'autres acteurs pour faire progresser le développement responsable de l'IA
  • Soutenir les efforts visant à tirer parti de l'IA pour relever les plus grands défis de la société.

L'AI Safety Fund a été créé pour financer l'initiative avec un montant initial de $10m provenant d'Anthropic, Google, Microsoft et OpenAI ainsi que d'autres philanthropes.

L'un des principaux objectifs déclarés du Frontier Model Forum est de "collaborer entre les secteurs". L'absence notable de Meta pourrait entraver leurs ambitions en matière de collaboration.

Au début de l'année, le Forum a signé des engagements volontaires en matière d'IA à la Maison Blanche. Même en l'absence de Meta, le groupe pourrait avoir suffisamment de poids pour établir des normes d'IA susceptibles d'être adoptées à plus grande échelle.

Il reste à voir comment ces normes seront finalement intégrées dans la législation. Avec des dissensions autour de domaines clés tels que les données de formation ou l'utilisation de l'Internet, il n'est pas certain que ces normes deviennent une législation. risques potentiels liés aux modèles de sources ouvertesil sera difficile de trouver un consensus.

Rejoindre l'avenir


SOUSCRIRE AUJOURD'HUI

Clair, concis, complet. Maîtrisez les développements de l'IA avec DailyAI

Eugène van der Watt

Eugene a une formation d'ingénieur en électronique et adore tout ce qui touche à la technologie. Lorsqu'il fait une pause dans sa consommation d'informations sur l'IA, vous le trouverez à la table de snooker.

×

PDF GRATUIT EXCLUSIF
Gardez une longueur d'avance avec DailyAI

Inscrivez-vous à notre newsletter hebdomadaire et recevez un accès exclusif au dernier eBook de DailyAI : 'Mastering AI Tools : Your 2024 Guide to Enhanced Productivity" (Maîtriser les outils de l'IA : votre guide 2024 pour une meilleure productivité).

*En vous abonnant à notre lettre d'information, vous acceptez nos conditions d'utilisation. Politique de confidentialité et notre Conditions générales d'utilisation