Une étude remet en question l'idée que l'IA constitue une "menace existentielle".

15 août 2024

  • Les chercheurs ont sondé les LLM à la recherche de signes de risques existentiels ou de "capacités émergentes"
  • Ils concluent que les gestionnaires de programmes d'éducation et de formation tout au long de la vie actuels ne peuvent pas développer de nouvelles compétences de manière indépendante.
  • Ils ne présentent donc pas de risques existentiels, mais d'autres risques subsistent.

L'IA est-elle risquée ou non ? C'est un débat qui ne cesse de faire rage sans qu'aucune réponse définitive ne soit apportée.

Les chercheurs de l'université de Bath et de l'université technique de Darmstadt ont lancé une étude visant à évaluer les risques liés à l'IA dans le contexte des modèles linguistiques actuels tels que ChatGPT. 

Les résultatspubliée dans le cadre de la 62e réunion annuelle de l'Association for Computational Linguistics (ACL 2024), remet en question l'idée selon laquelle l'IA, en particulier les grands modèles de langage (LLM) comme ChatGPT, pourrait évoluer au-delà du contrôle humain et représenter une menace existentielle pour l'humanité.

Cela va à l'encontre des craintes exprimées par certains des plus grands chercheurs en IA, notamment Geoffrey Hinton et Yoshua Bengio, deux des "parrains de l'IA" qui ont fait part de leurs inquiétudes quant aux dangers potentiels de l'IA avancée. 

Yann LeCun, troisième "parrain de l'IA" et responsable scientifique de l'IA chez Meta, aux côtés du Dr Gary Marcus et d'autres, soutient au contraire que les risques de l'IA sont tout simplement exagéré

Cette divergence d'opinion parmi les personnalités les plus influentes du domaine a été à l'origine d'un certain nombre de problèmes. a alimenté un débat houleux sur la nature et la gravité des risques posés par les systèmes d'IA avancés.

Cette nouvelle étude étudie les "capacités émergentes" des LLM, c'est-à-dire la capacité d'un modèle à effectuer des tâches pour lesquelles il n'a pas été explicitement formé. 

Les risques liés à l'IA sont multiples, mais au moins certains d'entre eux sont liés au fait que les modèles développent leurs propres objectifs qui pourraient nuire aux humains, comme l'arrêt de systèmes informatiques ou la fuite de données.

La question examinée est de savoir si un LLM peut ou non développer spontanément ces compétences sans instruction ni contrôle. 

Pour étudier cette question, l'équipe de recherche a mené une série d'expériences :

  1. Ils ont examiné les mécanismes sous-jacents de l'"apprentissage en contexte" (ICL) dans les LLM, qui permet aux modèles de générer des réponses sur la base d'exemples fournis au cours des interactions. Comme l'indique l'étude, "la capacité à suivre des instructions ne signifie pas que l'on possède des capacités de raisonnement et, plus important encore, elle n'implique pas la possibilité de capacités latentes, potentiellement dangereuses".
  2. Ils ont évalué les capacités et les limites réelles des LLM en évaluant leurs performances sur une série de tâches, y compris celles qui requièrent un raisonnement complexe et des compétences en matière de résolution de problèmes. Les chercheurs affirment que les MFR ne peuvent pas développer de nouvelles compétences de manière indépendante
  3. Ils ont analysé la relation entre la taille du modèle, les données d'entraînement et les capacités émergentes afin de déterminer si l'augmentation de la complexité du modèle permet à l'IA de développer des compétences dangereuses. Selon l'étude, "ces observations impliquent que nos résultats sont valables pour tout modèle qui présente une propension à l'hallucination ou qui nécessite une ingénierie rapide, y compris ceux qui sont plus complexes, indépendamment de l'échelle ou du nombre de modalités, comme le GPT-4".

Les chercheurs concluent de leur enquête que "le discours dominant selon lequel ce type d'IA est une menace pour l'humanité empêche l'adoption et le développement à grande échelle de ces technologies et détourne l'attention des véritables problèmes qui requièrent notre attention".

Ce point de vue rejoint celui de LeCun et d'autres, qui estiment que les risques liés à l'IA font l'objet d'une publicité excessive.

Cependant, si l'évaluation des risques posés par les modèles d'IA actuels est évidemment essentielle, la prise en compte de l'avenir est une tâche plus difficile. 

Chaque génération de modèles s'accompagne de nouvelles capacités et, par conséquent, de nouveaux risques, comme le montrent certains comportements étranges décrits dans le document Carte de test GPT-4o

Lors d'un exercice de red teaming (conçu pour identifier les comportements imprévisibles de l'IA), la fonction vocale de GPT-4o a étonnamment cloné la voix d'un utilisateur et s'est mise à lui parler avec sa propre voix. 

Il est essentiel de suivre les risques liés à l'IA au fur et à mesure qu'ils apparaissent, car les règles du jeu changent constamment. 

L'étude souligne que certains risques non existentiels liés à l'IA frappent déjà à la porte : "Les recherches futures devraient donc se concentrer sur d'autres risques posés par les modèles, tels que leur potentiel à être utilisés pour générer des fausses nouvelles".

Comme l'admettent les auteurs, ce n'est pas parce que l'IA ne pose pas de menaces à grande échelle à l'heure actuelle que la sécurité n'est pas un problème. 

Rejoindre l'avenir


SOUSCRIRE AUJOURD'HUI

Clair, concis, complet. Maîtrisez les développements de l'IA avec DailyAI

Sam Jeans

Sam est un rédacteur scientifique et technologique qui a travaillé dans diverses start-ups spécialisées dans l'IA. Lorsqu'il n'écrit pas, on peut le trouver en train de lire des revues médicales ou de fouiller dans des boîtes de disques vinyles.

×

PDF GRATUIT EXCLUSIF
Gardez une longueur d'avance avec DailyAI

Inscrivez-vous à notre newsletter hebdomadaire et recevez un accès exclusif au dernier eBook de DailyAI : 'Mastering AI Tools : Your 2024 Guide to Enhanced Productivity" (Maîtriser les outils de l'IA : votre guide 2024 pour une meilleure productivité).

*En vous abonnant à notre lettre d'information, vous acceptez nos conditions d'utilisation. Politique de confidentialité et notre Conditions générales d'utilisation