De nouvelles entreprises spécialisées dans l'IA rejoignent le cadre volontaire américain sur l'IA

12 septembre 2023

AI Maison Blanche

L'administration Biden a enrôlé huit autres entreprises d'IA dans son cadre de sécurité volontaire. 

Google, Anthropic, Microsoft, Amazon, OpenAI, Meta et Inflection ont rejoint le cadre volontaire de la Maison Blanche pour le développement et le déploiement d'une IA éthique. à la fin du mois de juillet.

Cette semaine, la Maison Blanche a annoncé qu'Adobe, IBM, Nvidia, Salesforce, Cohere, Scale AI, Palantir et Stability l'avaient rejointe. 

Le cadre proposé par M. Biden encourage les entreprises à partager leurs protocoles de sécurité et leurs mesures de protection, à divulguer les capacités et les limites de leurs technologies d'IA et à utiliser l'IA pour "contribuer à relever les plus grands défis de la société". 

Cet engagement fait froncer les sourcils étant donné que certaines entreprises participantes - notamment Palantir - sont connues pour leurs applications militaires de l'IA et leurs technologies de surveillance intérieure. L'entreprise est connue pour ses relations globales avec divers gouvernements et organisations militaires. 

Alex Karp, PDG de Palantir récemment encouragé les États-Unis à tirer parti de l'IA pour l'armement et la technologie militaire, et l'armée de l'air a déjà a effectué des vols d'essai avec succès avec un jet contrôlé par l'IA. 

M. Karp, qui s'exprimait en février lors d'un sommet sur l'IA et les technologies militaires, a indiqué que l'entreprise fournissait à l'armée ukrainienne des analyses de données pour des applications sur le champ de bataille. Malgré cela, M. Karp a précisé qu'une "architecture permettant la transparence des sources de données" devrait être "imposée par la loi".

Lors d'une audition devant la commission des forces armées du Sénat, le directeur technique de Palantir, Shyam Sankar, a déclaré que l'arrêt du développement de l'IA pourrait compromettre la suprématie technologique des États-Unis face à la Chine. Il a souligné la nécessité pour les États-Unis d'investir davantage dans des "capacités qui terrifieront nos adversaires".

Les critiques suggèrent que le cadre de la Maison Blanche néglige des considérations éthiques essentielles, telles que la transparence des données d'entraînement à l'IA générative, que la plupart des entreprises gardent sous clé. 

La Maison Blanche a indiqué qu'un décret était en cours d'élaboration pour "protéger les droits et la sécurité des Américains", mais aucun autre détail n'a été communiqué.

La complexité de l'IA éthique ne se limite pas à Palantir. D'autres grandes entreprises technologiques comme Google et Microsoft ont eu leur part de controverses sur des contrats militaires. 

Google a mené une fois le projet MavenL'entreprise a lancé une initiative visant à utiliser l'IA pour la surveillance des drones, mais l'a abandonnée à la suite des protestations de ses employés. Palantir aurait repris le projet par la suite.

À l'heure actuelle, les efforts de l'administration Biden se concentrent principalement sur des recommandations non contraignantes et des ordres exécutifs. 

Jeff Zeints, chef de cabinet de la Maison Blanche a déclaré à Reuters que l'administration "actionne tous les leviers dont elle dispose" pour atténuer les risques liés à l'IA.

Parallèlement, le chef de la majorité du Sénat des États-Unis, Chuck Schumer, organise une série de "forums sur l'IA", dont le premier se tiendra à l'occasion de la Journée mondiale de l'alimentation. aura lieu demain, le 13 septembre

La portée du cadre volontaire de la Maison Blanche s'élargit

Selon un fiche d'information du gouvernement qui couvre le cadre, les engagements de ceux qui ont adhéré jusqu'à présent servent de "passerelle importante vers l'action gouvernementale". 

Les entreprises ont accepté de soumettre leurs systèmes d'IA à des tests de sécurité internes et externes rigoureux avant de les rendre publics. 

"Ces tests, qui seront effectués en partie par des experts indépendants, permettent de se prémunir contre certaines des sources les plus importantes de risques liés à l'IA, telles que la biosécurité et la cybersécurité", a déclaré la Maison Blanche.

Les entreprises s'engageront également à partager des informations sur la gestion des risques liés à l'IA au sein de l'industrie et avec les gouvernements, la société civile et le monde universitaire.

Il vise à créer un environnement de collaboration pour améliorer les protocoles de sécurité de l'IA et offre une plateforme de collaboration technique pour déjouer les tentatives de contournement des mesures de protection.

"L'administration a consulté l'Australie, le Brésil, le Canada, le Chili, la France, l'Allemagne, l'Inde, Israël, l'Italie, le Japon, le Kenya, le Mexique, les Pays-Bas, la Nouvelle-Zélande, le Nigeria, les Philippines, Singapour, la Corée du Sud, les Émirats arabes unis et le Royaume-Uni pour élaborer ces engagements", a indiqué la Maison Blanche. 

Il existe d'autres initiatives destinées à renforcer la résilience des États-Unis face à l'IA, comme un concours appelé "Cyberdéfi IA"en collaboration avec la DARPA.

La réglementation de l'IA semble s'accélérer pour atteindre une masse critique, l'UE progressant également vers la version finale de sa loi sur l'IA.

Rejoindre l'avenir


SOUSCRIRE AUJOURD'HUI

Clair, concis, complet. Maîtrisez les développements de l'IA avec DailyAI

Sam Jeans

Sam est un rédacteur scientifique et technologique qui a travaillé dans diverses start-ups spécialisées dans l'IA. Lorsqu'il n'écrit pas, on peut le trouver en train de lire des revues médicales ou de fouiller dans des boîtes de disques vinyles.

×

PDF GRATUIT EXCLUSIF
Gardez une longueur d'avance avec DailyAI

Inscrivez-vous à notre newsletter hebdomadaire et recevez un accès exclusif au dernier eBook de DailyAI : 'Mastering AI Tools : Your 2024 Guide to Enhanced Productivity" (Maîtriser les outils de l'IA : votre guide 2024 pour une meilleure productivité).

*En vous abonnant à notre lettre d'information, vous acceptez nos conditions d'utilisation. Politique de confidentialité et notre Conditions générales d'utilisation