Wetenschappers van de Universiteit van Genève hebben een kloof in AI overbrugd door een kunstmatig neuraal netwerk te maken dat taken leert voordat het deze doorgeeft aan een andere AI, die ze kan repliceren.
Mensen kunnen nieuwe taken begrijpen aan de hand van korte instructies en de geleerde taak goed genoeg verwoorden zodat een ander hem kan nadoen. Dit is een integraal onderdeel van menselijke communicatie en een belangrijk kenmerk van onze bewuste wereld.
Deze fascinerende onderzoekgedetailleerd in Neurowetenschappengeeft AI een vorm van menselijke communicatie en leren die de technologie lange tijd is ontgaan.
Het project, dat wordt geleid door Alexandre Pouget, een professor aan de Faculteit Geneeskunde van UNIGE, en zijn team, verdiept zich in geavanceerde technieken binnen natuurlijke taalverwerking - een subset van AI die zich richt op het begrijpen van machines en het reageren op menselijke taal.
Pouget legt de huidige beperkingen van AI in deze context uit, waarbij hij opmerkt in een artikel gepubliceerd op de website van de Universiteit van Genève: "Op dit moment zijn conversatie-agenten die gebruik maken van AI in staat om linguïstische informatie te integreren om tekst of een afbeelding te produceren. Maar, voor zover we weten, zijn ze nog niet in staat om een verbale of geschreven instructie te vertalen naar een sensorimotorische actie, en nog minder om het uit te leggen aan een andere kunstmatige intelligentie zodat deze het kan reproduceren."
Het Geneva-team verbeterde een bestaand kunstmatig neuraal model (ANN) voor taalbegrip, S-Bert.
Ze verbonden S-Bert met een kleiner, eenvoudiger netwerk dat de taalperceptie- en productiegebieden van de menselijke hersenen simuleert - de Wernicke- en Broca-gebieden.
Door training kon dit netwerk taken uitvoeren op basis van geschreven Engelse instructies en deze taken vervolgens taalkundig overbrengen naar een "zuster"-netwerk, waardoor de twee AI's puur via taal over taakinstructies konden communiceren.
Reidar Riveland, een promovendus die betrokken was bij het onderzoek, legde uit: "We begonnen met een bestaand model van kunstmatige neuronen, S-Bert, dat 300 miljoen neuronen heeft en vooraf getraind is om taal te begrijpen. We 'verbonden' het met een ander, eenvoudiger netwerk van een paar duizend neuronen."
De taken varieerden van eenvoudige instructies zoals het aanwijzen van een locatie tot complexere opdrachten waarbij subtiele contrasten tussen visuele stimuli geïdentificeerd moesten worden.
Dit zijn de belangrijkste resultaten van het onderzoek:
- Het AI-systeem kon instructies zowel begrijpen als uitvoeren en nieuwe, ongeziene taken 83% van de tijd correct uitvoeren op basis van linguïstische instructies alleen.
- Het systeem kon beschrijvingen van aangeleerde taken genereren op een manier die een tweede AI in staat stelde om deze taken te begrijpen en te herhalen met een vergelijkbaar succespercentage.
Dit bevordert het potentieel voor AI-modellen om taken te leren en taalkundig te communiceren, wat nieuwe mogelijkheden biedt in de robotica.
Het integreert linguïstisch begrip met sensorimotorische functies, wat betekent dat AI's kunnen converseren en begrijpen wanneer een instructie vraagt om een taak uit te voeren, zoals iets van een plank pakken of in een bepaalde richting bewegen.
"Het netwerk dat we hebben ontwikkeld is erg klein. Niets staat nu nog in de weg om op basis hiervan veel complexere netwerken te ontwikkelen die geïntegreerd zouden kunnen worden in humanoïde robots die in staat zijn om ons te begrijpen, maar ook om elkaar te begrijpen," deelden de onderzoekers over het onderzoek.
Samen met recente massale investeringen in AI-robotica bedrijven zoals Figure AIintelligente androïden zijn misschien dichterbij dan we denken.