Des scientifiques de l'Université de Genève ont comblé une lacune dans le domaine de l'IA en créant un réseau neuronal artificiel qui apprend des tâches avant de les communiquer à une autre IA, qui peut les reproduire.
Les êtres humains sont capables d'assimiler de nouvelles tâches à partir d'instructions courtes et d'articuler la tâche apprise suffisamment bien pour qu'une autre personne puisse la reproduire. Cela fait partie intégrante de la communication humaine et constitue une caractéristique essentielle de notre monde conscient.
Cette fascinante étudedétaillée dans Nature NeuroscienceL'IA peut ainsi bénéficier d'une forme de communication et d'apprentissage humain qui a longtemps échappé à la technologie.
Le projet, mené par Alexandre Pouget, professeur à la Faculté de médecine de l'UNIGE, et son équipe, se penche sur des techniques avancées de traitement du langage naturel - un sous-ensemble de l'IA axé sur la compréhension des machines et la réponse à leurs besoins. le langage humain.
Pouget explique les limites actuelles de l'IA dans ce contexte. article publié sur le site de l'Université de Genève : "Actuellement, les agents conversationnels utilisant l'IA sont capables d'intégrer des informations linguistiques pour produire un texte ou une image. Mais, à notre connaissance, ils ne sont pas encore capables de traduire une instruction verbale ou écrite en une action sensorimotrice, et encore moins de l'expliquer à une autre intelligence artificielle pour qu'elle la reproduise."
L'équipe genevoise a amélioré un modèle neuronal artificiel (ANN) existant de compréhension de la langue, S-Bert.
Ils ont connecté S-Bert à un réseau plus petit et plus simple, simulant les zones de perception et de production du langage du cerveau humain, les zones de Wernicke et de Broca.
Grâce à l'entraînement, ce réseau peut exécuter des tâches basées sur des instructions écrites en anglais, puis transmettre ces tâches par voie linguistique à un réseau "jumeau", ce qui permet aux deux IA de communiquer des instructions de tâches uniquement par la langue.
Reidar Riveland, doctorant participant à l'étude, explique : "Nous sommes partis d'un modèle existant de neurones artificiels, S-Bert, qui compte 300 millions de neurones et qui est pré-entraîné à comprendre le langage. Nous l'avons "connecté" à un autre réseau plus simple de quelques milliers de neurones".
Les tâches allaient d'instructions simples, comme pointer du doigt un endroit, à des commandes plus complexes nécessitant l'identification de contrastes subtils entre des stimuli visuels.
Voici les principaux résultats de l'étude :
- Le système d'IA pouvait à la fois comprendre et exécuter des instructions, réalisant correctement des tâches nouvelles et inédites 83% du temps sur la base des seules instructions linguistiques.
- Le système pourrait générer des descriptions de tâches apprises de manière à permettre à une seconde IA de comprendre et de reproduire ces tâches avec un taux de réussite similaire.
Cela renforce le potentiel des modèles d'IA à apprendre et à communiquer des tâches de manière linguistique, ce qui ouvre de nouvelles perspectives dans le domaine de la robotique.
Il intègre la compréhension linguistique aux fonctions sensorimotrices, ce qui signifie que les IA pourraient converser et comprendre lorsqu'une instruction leur demande d'effectuer une tâche, comme saisir un objet sur une étagère ou se déplacer dans une certaine direction.
"Le réseau que nous avons développé est très petit. Rien n'empêche désormais de développer, sur cette base, des réseaux beaucoup plus complexes qui seraient intégrés dans des robots humanoïdes capables de nous comprendre mais aussi de se comprendre entre eux", ont partagé les chercheurs de l'étude.
Avec les récents investissements massifs dans la robotique IA des entreprises comme Figure AILes androïdes intelligents pourraient être plus proches de la réalité que nous ne le pensons.