Forskere fra universitetet i Genève har bygget bro over et hull i AI ved å skape et kunstig nevralt nettverk som lærer seg oppgaver før de kommuniserer dem til en annen AI, som kan gjenskape dem.
Mennesker kan forstå nye oppgaver ut fra korte instruksjoner og formulere den innlærte oppgaven godt nok til at en annen person kan gjenskape den. Dette er en integrert del av menneskelig kommunikasjon og et sentralt trekk ved vår bevisste verden.
Denne fascinerende studie, beskrevet i Nature Neurosciencegir AI en form for menneskelig kommunikasjon og læring som lenge har unngått teknologien.
Prosjektet, som ledes av Alexandre Pouget, professor ved det medisinske fakultetet ved UNIGE, og teamet hans, tar for seg avanserte teknikker innen naturlig språkbehandling - en undergruppe av kunstig intelligens som fokuserer på maskinforståelse og respons på menneskespråk.
Pouget forklarer de nåværende begrensningene ved kunstig intelligens i denne sammenhengen, og bemerker i en artikkel publisert på Universitetet i Genèves nettsider: "For øyeblikket er samtaleagenter som bruker kunstig intelligens i stand til å integrere språklig informasjon for å produsere tekst eller et bilde. Men så vidt vi vet, er de ennå ikke i stand til å oversette en muntlig eller skriftlig instruksjon til en sensomotorisk handling, og enda mindre til å forklare den til en annen kunstig intelligens slik at den kan reprodusere den."
Teamet i Genève videreutviklet en eksisterende kunstig nevral modell (ANN) for språkforståelse, S-Bert.
De koblet S-Bert til et mindre, enklere nettverk som simulerte menneskehjernens områder for språkoppfatning og språkproduksjon - Wernicke- og Broca-områdene.
Gjennom opplæring kunne dette nettverket utføre oppgaver basert på skrevne engelske instruksjoner og deretter formidle disse oppgavene språklig til et "søsternettverk", slik at de to AI-ene kunne kommunisere oppgaveinstruksjoner utelukkende gjennom språk.
Reidar Riveland, en doktorgradsstudent som deltok i studien, forklarer: "Vi tok utgangspunkt i en eksisterende modell av kunstige nevroner, S-Bert, som har 300 millioner nevroner og er forhåndstrenet til å forstå språk. Vi "koblet den" til et annet, enklere nettverk med noen få tusen nevroner.
Oppgavene varierte fra enkle instruksjoner som å peke på et sted til mer komplekse kommandoer som krevde identifisering av subtile kontraster mellom visuelle stimuli.
Her er studiens viktigste resultater:
- AI-systemet kunne både forstå og utføre instruksjoner, og utførte nye, ukjente oppgaver korrekt i 83% av tilfellene basert på språklige instruksjoner alene.
- Systemet kunne generere beskrivelser av innlærte oppgaver på en måte som gjorde det mulig for en annen AI å forstå og gjenskape disse oppgavene med samme suksessrate.
Dette øker potensialet for at AI-modeller kan lære og kommunisere oppgaver språklig, noe som åpner for nye muligheter innen robotteknologi.
Den integrerer språklig forståelse med sensomotoriske funksjoner, noe som betyr at AI-er kan snakke sammen og forstå når en instruksjon ber den om å utføre en oppgave, som å ta noe fra en hylle eller bevege seg i en bestemt retning.
"Nettverket vi har utviklet er veldig lite. Ingenting står nå i veien for å utvikle langt mer komplekse nettverk som kan integreres i humanoide roboter som er i stand til å forstå oss, men også til å forstå hverandre", sier forskerne om studien.
Sammen med de massive investeringene som nylig er gjort i AI-robotikk selskaper som Figure AIkan intelligente androider være nærmere virkeligheten enn vi tror.