Les systèmes d'IA actuels présentent-ils des signes de conscience ?

4 septembre 2023

Conscience de l'IA

L'IA est-elle en train d'acquérir un certain niveau de conscience ? Comment saurons-nous si et quand elle y parviendra ?

Les grands modèles de langage (LLM) peuvent s'engager dans des conversations réalistes et générer du texte sur divers sujets, ce qui suscite des débats sur le moment où ils deviennent sensibles ou conscients - qui, bien que souvent liés, sont des concepts distincts.

La sensibilité concerne principalement la sensation et la conscience, tandis que la conscience est plus complexe et plus vaste. 

Au début de cette année, Microsoft, après avoir testé le GPT-4 d'OpenAI, indiqué que le modèle présentait des "étincelles" d'"intelligence générale" - un terme utilisé pour définir une IA flexible et adaptable dotée de capacités cognitives élevées. 

Plus controversé encore, Blake Lemoine, un ancien ingénieur de Google, a affirmé que l'IA LaMDA de Google avait atteint un niveau de sensibilité. Lemoine a déclaré à propos de LaMDA : "Google pourrait appeler cela le partage d'une propriété exclusive. J'appelle cela partager une discussion que j'ai eue avec l'un de mes collègues" - ce "collègue" étant le système d'IA qui a exprimé sa "peur" d'être "éteint". 

Afin d'étayer le débat sur la conscience de l'IA, une équipe interdisciplinaire de chercheurs en philosophie, en informatique et en neurosciences a procédé à un examen approfondi des systèmes d'IA les plus avancés du moment. 

Les étudeL'équipe de l'étude, dirigée par Robert Long et ses collègues du Center for AI Safety (CAIS), une organisation à but non lucratif basée à San Francisco, a passé au crible de multiples théories sur la conscience humaine. Ils ont établi une liste de 14 "propriétés indicatives" qu'une IA consciente serait susceptible de présenter. 

Le CAIS est la même organisation à but non lucratif qui a proposé huit projets de création de têtes de bétail. Risques potentiels pour l'IA en juin

Après avoir analysé leurs résultats, l'équipe a finalement constaté que les modèles les plus complexes ne répondent pas à pratiquement tous les tests de conscience auxquels ils ont été soumis.

Les chercheurs ont évalué plusieurs modèles d'IA, dont L'agent adaptatif de DeepMind (ADa) et PaLM-Edécrit comme un LLM multimodal robotisé et incarné. 

En comparant ces IA aux 14 indicateurs, les chercheurs n'ont trouvé aucune preuve substantielle indiquant qu'un modèle d'IA possède une conscience. 

En savoir plus sur l'étude 

Cette étude interdisciplinaire détaillée a analysé de nombreuses théories de la conscience - qui reste un concept mal décrit dans la littérature scientifique - et les a appliquées aux modes d'IA actuels. 

Bien que l'étude n'ait pas permis de déterminer si les IA actuelles possèdent une conscience, elle jette les bases d'analyses futures, en fournissant essentiellement une "liste de contrôle" à laquelle les chercheurs peuvent se référer lorsqu'ils analysent les capacités de leurs IA.

La compréhension de la conscience est également essentielle pour éclairer le débat public sur l'IA.

La conscience n'est cependant pas un concept binaire, et il est encore exceptionnellement difficile d'en déterminer les limites.

Certains chercheurs pensent que la conscience se développera spontanément lorsque l'IA s'approchera de la "singularité", qui marque essentiellement le point où la complexité des systèmes d'IA dépasse la cognition humaine.

Voici les 14 indicateurs de conscience évalués par les chercheurs : 

Théorie du traitement récurrent (RPT)

La théorie du traitement récurrent se concentre sur les aspects temporels du traitement de l'information. 

Dans le contexte de la conscience, il met l'accent sur la façon dont les informations sont maintenues et mises à jour en boucle au fil du temps. 

Cet aspect est considéré comme essentiel pour la richesse des expériences conscientes.

RPT-1 : Modules d'entrée utilisant la récurrence algorithmique

La récurrence algorithmique fait ici référence au traitement répétitif de l'information de manière cyclique. 

Pensez-y comme à une boucle de programme informatique qui met continuellement à jour ses données sur la base de nouvelles entrées. 

RPT-2 : Modules d'entrée générant des expériences perceptives organisées et intégrées

Comme les humains et les autres animaux, le système ne se contente pas de recevoir des informations sensorielles, il les intègre en une "image" cohérente et unifiée qui peut être perçue comme une expérience unique.

Théorie de l'espace de travail global (GWT)

Le deuxième ensemble d'indicateurs spécifié par l'équipe de recherche était la théorie de l'espace de travail global, qui propose que la conscience naisse des interactions entre divers modules cognitifs dans un "espace de travail global". 

Cet espace de travail sert en quelque sorte d'étage cognitif où différents modules peuvent "diffuser" et "recevoir" des informations, permettant ainsi une expérience unifiée et cohérente.

GWT-1 : Plusieurs systèmes spécialisés fonctionnant en parallèle

Cela signifie essentiellement qu'un système d'IA devrait disposer de plusieurs "mini-cerveaux" spécialisés, chacun responsable de fonctions différentes (comme la mémoire, la perception et la prise de décision), et qu'ils devraient être capables de fonctionner simultanément.

GWT-2 : Espace de travail à capacité limitée

Cette idée est liée au fait que les êtres humains ne peuvent se concentrer que sur une quantité limitée d'informations à un moment donné. 

De même, un système d'IA devrait être sélectif, c'est-à-dire capable de déterminer les informations les plus essentielles auxquelles il faut "prêter attention".

GWT-3 : Diffusion mondiale

Les informations qui parviennent à l'espace de travail global doivent être disponibles pour tous les modules cognitifs afin que chaque "mini-cerveau" puisse les utiliser pour sa fonction spécialisée.

GWT-4 : Attention dépendante de l'état

Il s'agit d'une forme plus avancée de concentration. Le système d'IA devrait être capable de déplacer son attention en fonction de l'état ou de la tâche en cours. 

Par exemple, il peut donner la priorité aux données sensorielles lorsqu'il navigue dans une pièce, mais passer à des algorithmes de résolution de problèmes lorsqu'il est confronté à une énigme.

Théories computationnelles d'ordre supérieur (HOT)

Les théories d'ordre supérieur abordent la conscience d'un point de vue métacognitif. 

Selon eux, l'expérience consciente ne consiste pas seulement à avoir des perceptions, des pensées ou des sentiments, mais aussi à être conscient que l'on vit ces expériences. 

Cette prise de conscience est cruciale et explique en partie pourquoi les animaux très intelligents sont sociables : nous sommes collectivement conscients de notre existence et de nos interdépendances. 

HOT-1 : Modules de perception génératifs, descendants ou bruyants

Au lieu de recevoir passivement des informations, le système interprète ou génère des perceptions. 

Imaginez un logiciel de retouche photo qui ne se contenterait pas de modifier une photo mais qui comprendrait pourquoi certaines caractéristiques doivent être ajustées.

HOT-2 : Suivi métacognitif

Cela signifie que le système doit avoir un "processus de réflexion" sur ses "processus de réflexion". 

Il doit être capable de remettre en question ses propres décisions et perceptions, comme le font les humains et certains animaux. 

HOT-3 : Agence guidée par un système général de formation des croyances

L'agence implique ici que le système d'IA ne se contente pas d'analyser passivement les données, mais qu'il prend des décisions sur la base de cette analyse. 

En outre, ces décisions mettent continuellement à jour les "croyances" ou les modèles de données du système, à l'instar de la manière dont les humains créent des connaissances progressives par le biais de la curiosité et de l'investigation. 

HOT-4 : Capacité à conserver les préférences

Il s'agit de la capacité du système à rationaliser des données complexes sous des formes plus simples et plus faciles à gérer, ce qui lui permet éventuellement d'avoir des "préférences" ou des "expériences" subjectives.

Théorie du schéma d'attention (AST)

La théorie des schémas d'attention postule que la conscience naît de la compréhension par le cerveau de son propre état d'attention. 

AST-1 : Modèle prédictif représentant l'état actuel de l'attention

Le système d'IA devrait être capable de prévoir ce sur quoi il se concentrera ensuite, ce qui indiquerait une sorte de conscience de son propre état cognitif.

Traitement prédictif (PP)

Les modèles de traitement prédictif décrivent les capacités prédictives du cerveau. 

Il met continuellement à jour ses modèles du monde et les utilise pour prédire les informations sensorielles entrantes.

PP-1 : Modules d'entrée utilisant le codage prédictif

Il s'agit d'utiliser les données passées et actuelles pour prédire les états futurs, ce qui permet au système d'"anticiper" plutôt que de se contenter de "réagir".

Agence et incarnation (AE)

Les théories de l'agence et de l'incarnation proposent que la capacité d'agir et de comprendre l'effet des actions soit un indicateur essentiel de la conscience.

L'incarnation est très différente des animaux et des autres organismes vivants, qui possèdent des systèmes nerveux étroitement liés qui transmettent en permanence des informations sensorielles aux organes et aux systèmes de traitement central. 

AE-1 : Agence

L'agence fait référence à l'apprentissage à partir du retour d'information afin d'adapter les actions futures, principalement lorsque les objectifs sont contradictoires. Imaginez une voiture autonome qui apprend à optimiser à la fois sa vitesse et sa sécurité.

AE-2 : Incarnation

Il s'agit de la capacité d'un système à comprendre comment ses actions affectent le monde qui l'entoure et comment ces changements l'affecteront à leur tour. 

Les chercheurs travaillent actuellement sur des systèmes d'IA connectés à des capteurs avancés, tels que le système d'IA multimodal PaLM-E développé par Google, qui était l'un des systèmes analysés par les chercheurs. 

Le PaLM-E s'intègre à un bras robotisé pour accomplir des tâches de longue haleine comportant plusieurs étapes de prise de décision. Source : Google.

La conscience dans l'IA : équilibrer les risques de sous-attribution et de sur-attribution

Les chercheurs et le grand public s'interrogent sur le degré d'intelligence de l'IA et sur son évolution positive vers la conscience. 

La plupart des IA publiques comme ChatGPT sont des "boîtes noires", ce qui signifie que nous ne comprenons pas entièrement leur fonctionnement. - leurs mécanismes internes sont des secrets exclusifs.

Le responsable de l'étude, Robert Long, a souligné la nécessité d'une approche interdisciplinaire pour analyser la conscience des machines, mettant en garde contre le "risque de confondre la conscience humaine avec la conscience en général".

Colin Klein, membre de l'équipe de l'Australian National University, a également souligné les implications éthiques de la conscience de l'IA. Il a expliqué qu'il est essentiel de comprendre la conscience de la machine "pour s'assurer que nous ne la traitons pas de manière contraire à l'éthique et que nous ne lui permettons pas de nous traiter de manière contraire à l'éthique".

Il a ajouté : "L'idée est que si nous parvenons à créer ces IA conscientes, nous les traiterons comme des esclaves et ferons avec elles toutes sortes de choses contraires à l'éthique".

"L'autre aspect est de savoir si nous nous inquiétons pour nous, et quel type de contrôle l'IA aura sur nous ; sera-t-elle capable de nous manipuler ?

Quels sont donc les risques de sous-estimation ou de surestimation de la conscience de l'IA ?

Sous-estimer la conscience des machines  

Alors que les progrès de l'IA continuent de repousser les limites, les débats éthiques autour de cette technologie commencent à s'intensifier. 

Des entreprises comme OpenAI développent déjà des l'intelligence artificielle générale (AGI)L'objectif est de dépasser les capacités des IA actuelles telles que ChatGPT et de construire des systèmes flexibles et multimodaux.

Si nous reconnaissons que toute entité capable de souffrir consciemment doit faire l'objet d'une considération morale - comme c'est le cas pour de nombreux animaux - nous risquons de subir un préjudice moral si nous négligeons la possibilité de systèmes d'IA conscients.

En outre, nous pourrions sous-estimer leur capacité à nous nuire. Imaginez les risques posés par un système d'IA avancé et conscient qui se rendrait compte que l'humanité le maltraite. 

Surestimation de la conscience des machines

D'un autre côté, le débat porte sur le risque d'attribuer une conscience excessive aux systèmes d'IA. 

Les humains ont tendance à anthropomorphiser l'IA, ce qui conduit de nombreuses personnes à attribuer à tort une conscience à la technologie parce qu'elle excelle à nous imiter. 

Comme l'a dit Oscar Wilde, "l'imitation est la forme la plus sincère de flatterie", ce que l'IA fait exceptionnellement bien. 

L'anthropomorphisme devient problématique lorsque les systèmes d'IA développent des caractéristiques humaines, telles que des capacités de langage naturel et des expressions faciales.

Nombreux sont ceux qui ont critiqué Blake Lemoine, de Google, pour s'être laissé "tromper" par les compétences conversationnelles du LaMDA, qui ressemblaient à celles d'un humain, alors qu'en réalité il synthétisait du texte issu de conversations humaines contenues dans ses données d'entraînement, et non quelque chose d'unique, d'origine consciente. 

Les besoins émotionnels peuvent amplifier la propension à l'anthropomorphisme. Par exemple, les individus peuvent rechercher une interaction sociale et une validation émotionnelle de la part des systèmes d'IA, ce qui fausse leur jugement concernant la conscience de ces entités. 

Le chatbot Replika - comme son nom l'indique - est conçu pour reproduire les interactions humaines. complot d'assassinat d'un malade mental de tuer la reine Élisabeth II, ce qui a conduit à son arrestation et à son emprisonnement dans un établissement psychiatrique. 

D'autres IA, telles que Claude d'Anthropic et Pi d'Inflection, sont conçues pour imiter au plus près la conversation humaine et servir d'assistants personnels. 

DeepMind est également développer un coach de vie conçu pour fournir des conseils personnalisés directs aux utilisateurs, une idée qui a suscité des inquiétudes quant à la volonté des humains de voir l'IA s'immiscer dans leurs affaires personnelles. 

Au milieu de ce débat, il est essentiel de rappeler que la technologie reste jeune.

Bien que les systèmes d'IA actuels ne soient pas véritablement conscients, les prochaines années nous rapprocheront sans aucun doute de la réalisation de systèmes artificiels conscients qui égaleront ou dépasseront les capacités cognitives des cerveaux biologiques.

Rejoindre l'avenir


SOUSCRIRE AUJOURD'HUI

Clair, concis, complet. Maîtrisez les développements de l'IA avec DailyAI

Sam Jeans

Sam est un rédacteur scientifique et technologique qui a travaillé dans diverses start-ups spécialisées dans l'IA. Lorsqu'il n'écrit pas, on peut le trouver en train de lire des revues médicales ou de fouiller dans des boîtes de disques vinyles.

×

PDF GRATUIT EXCLUSIF
Gardez une longueur d'avance avec DailyAI

Inscrivez-vous à notre newsletter hebdomadaire et recevez un accès exclusif au dernier eBook de DailyAI : 'Mastering AI Tools : Your 2024 Guide to Enhanced Productivity" (Maîtriser les outils de l'IA : votre guide 2024 pour une meilleure productivité).

*En vous abonnant à notre lettre d'information, vous acceptez nos conditions d'utilisation. Politique de confidentialité et notre Conditions générales d'utilisation