Les entreprises technologiques signent une lettre pour "construire l'IA pour un meilleur avenir" pour tous

4 mars 2024

lettre AI

Dans une lettre ouverte intitulée "Construire l'IA pour un avenir meilleur", des dirigeants du monde de la technologie s'engagent à utiliser l'IA pour améliorer la vie des gens et résoudre des problèmes mondiaux. 

Ce document, signé par une liste de 179 entités qui ne cesse de s'allonger, souligne le potentiel de l'IA à révolutionner la vie quotidienne et le travail, en établissant un parallèle avec des jalons historiques tels que l'imprimerie et l'internet.

La lettre exprime une vision selon laquelle l'IA devrait servir de catalyseur au progrès humain, en améliorant l'apprentissage grâce à des tuteurs d'IA, en comblant les fossés linguistiques grâce à des outils de traduction, en faisant progresser les soins de santé grâce à des aides au diagnostic, en accélérant la recherche scientifique et en simplifiant les tâches quotidiennes grâce à des assistants d'IA. 

Parmi les signataires figurent la société d'investissement SV Angel (à l'origine de la lettre), OpenAI, Meta, Google, Microsoft et Salesforce, entre autres.

La lettre déclare : "Nous avons tous quelque chose à apporter pour façonner l'avenir de l'IA, qu'il s'agisse de ceux qui l'utilisent pour créer et apprendre, de ceux qui développent de nouveaux produits et services à partir de cette technologie, de ceux qui utilisent l'IA pour trouver de nouvelles solutions à certains des plus grands défis de l'humanité ou de ceux qui partagent leurs espoirs et leurs inquiétudes quant à l'impact de l'IA sur leur vie. L'IA nous concerne tous, et nous avons tous un rôle à jouer dans le développement de l'IA pour améliorer la vie des gens.

"Nous, les soussignés, ressentons déjà les avantages de l'IA et nous nous engageons à construire une IA qui contribuera à un meilleur avenir pour l'humanité - rejoignez-nous !

Qu'en est-il de la réception ?

Le moins que l'on puisse dire, c'est qu'elle a été glaciale. En une centaine de mots, la lettre ne tente pas vraiment de démêler la trajectoire et les impacts de l'IA. 


L'un des critiques souligne l'absence de mention explicite de la sécurité de l'IA, la qualifiant de "pacotille de relations publiques". Un autre qualifie la déclaration de "totalement vide" et lui reproche de ne pas aborder des questions essentielles telles que le risque d'extinction de l'AGI, la perturbation des moyens de subsistance ou la menace d'une course aux armements géopolitique.


Cet accord s'ajoute à de nombreux autres accords interprofessionnels, tels que le MLCommons collabore avec Big Tech pour définir des critères de sécurité, les engagements récents en faveur de la création d'un système unifié de filigraneet le forum du modèle Frontier.

N'oublions pas non plus la déclaration sismique cosignée par le Center for AI Safety (CAIS) au début de l'année 2023, qui comparait les risques liés à l'IA aux pandémies et à la guerre nucléaire.

Les entreprises technologiques ont également uni leurs forces pour s'attaquer à la fraude électorale profonde et a conclu de nombreux accords lors d'événements clés tels que le Forum économique mondial (WEF) et le sommet britannique sur la sécurité de l'IA. 

L'IA générative fait face à une tempête médiatique

L'IA générative a fait l'objet d'un examen approfondi et d'une controverse, notamment en ce qui concerne la propriété intellectuelle, l'utilisation éthique et le potentiel de renforcement de la domination des grandes entreprises technologiques. 

L'une des principales préoccupations concerne les implications juridiques et éthiques de l'utilisation sans autorisation de contenus protégés par des droits d'auteur pour entraîner des modèles d'IA. 

Des entreprises comme Stability AI et OpenAI prétendent que le "fair use" les protège, mais il s'agit d'une théorie très discutée et non vérifiée à l'ère de l'IA générative. 

La difficulté de définir ce qui est "dans le style" d'un artiste et les responsabilités d'entités telles que le Large-scale Artificial Intelligence Open Network (LAION) dans la compilation d'ensembles de données de formation ont été soulignées comme des questions clés.

En outre, le déploiement rapide par les entreprises technologiques de produits alimentés par l'IA sans que les défauts, tels que la perpétuation de préjugés préjudiciables, la violation des droits d'auteur et les vulnérabilités en matière de sécurité, ne soient entièrement corrigés, a été critiqué. 

Les lettres ouvertes témoignent d'une certaine prise de conscience. Mais pour réduire les risques réels, il faudra un peu moins de paroles et un peu plus d'actions.

Rejoindre l'avenir


SOUSCRIRE AUJOURD'HUI

Clair, concis, complet. Maîtrisez les développements de l'IA avec DailyAI

Sam Jeans

Sam est un rédacteur scientifique et technologique qui a travaillé dans diverses start-ups spécialisées dans l'IA. Lorsqu'il n'écrit pas, on peut le trouver en train de lire des revues médicales ou de fouiller dans des boîtes de disques vinyles.

×

PDF GRATUIT EXCLUSIF
Gardez une longueur d'avance avec DailyAI

Inscrivez-vous à notre newsletter hebdomadaire et recevez un accès exclusif au dernier eBook de DailyAI : 'Mastering AI Tools : Your 2024 Guide to Enhanced Productivity" (Maîtriser les outils de l'IA : votre guide 2024 pour une meilleure productivité).

*En vous abonnant à notre lettre d'information, vous acceptez nos conditions d'utilisation. Politique de confidentialité et notre Conditions générales d'utilisation