AI avkodar tal från icke-invasiva hjärninspelningar

9 oktober 2023

Exakt hur våra hjärnor bearbetar och formulerar språk är fortfarande till stor del ett mysterium. Forskare vid Meta AI hittade ett nytt sätt att mäta hjärnvågor och avkoda de ord som är associerade med dem.

Personer med kraftigt begränsad motorik, som ALS-sjuka, har särskilt svårt att kommunicera. Det är svårt att föreställa sig hur frustrerande det är för en person som Stephen Hawking att mödosamt konstruera en mening med ögonrörelser eller ryckningar i en kindmuskel.

Mycket forskning har gjorts för att avkoda tal från hjärnaktivitetmen de bästa resultaten beror på invasiva implantat för hjärna och dator.

Meta AI:s forskare använde magneto-encefalografi (MEG) och elektroencefalografi (EEG) för att registrera hjärnvågorna hos 175 frivilliga medan de lyssnade på korta berättelser och isolerade meningar.

De använde en förtränad talmodell och kontrastiv inlärning för att identifiera vilka hjärnvågsmönster som var associerade med specifika ord som försökspersonerna lyssnade på.

Forskarna delade upp ljudet i 3-sekunderssegment och testade sedan sin modell för att se om den kunde identifiera vilket av de 1.500 segmenten som volontären lyssnade på. Modellen förutspådde ett slags ordmoln där det mest sannolika ordet gavs störst vikt.

De uppnådde en noggrannhet på 41% i genomsnitt och 95,9% noggrannhet med sina bästa deltagare.

Talförutsägelser från hjärnvågor
Förutsägelser på ordnivå medan deltagarna lyssnade på meningen "Tack för att du kom, Ed". Blå ord motsvarar det korrekta ordet och svarta ord motsvarar negativa kandidater. Textstorleken är proportionell mot modellens log-probability-utdata. Källan är: Natur

Forskningen visar att det är möjligt att få en ganska god uppfattning om vilket tal en person hör, men nu måste processen vändas för att vara användbar. Vi måste mäta deras hjärnvågor och veta vilket ord de tänker på.

I artikeln föreslås att ett neuralt nätverk tränas medan försökspersoner producerar ord genom att tala eller skriva. Den generella modellen skulle sedan kunna användas för att tolka hjärnvågor och de associerade ord som en ALS-drabbad person tänkte på.

Forskarna kunde identifiera talsegment från en begränsad förutbestämd uppsättning. För att kunna kommunicera på rätt sätt måste man kunna identifiera många fler ord. Att använda en generativ AI för att förutsäga nästa mest sannolika ord som en person försöker säga skulle kunna hjälpa till med det.

Även om processen var icke-invasiv kräver den fortfarande att man är ansluten till en MEG-enhet. Tyvärr var resultaten från EEG-mätningarna inte bra.

Forskningen visar att AI så småningom kan användas för att hjälpa röstlösa personer, som ALS-patienter, att kommunicera. Genom att använda en förtränad modell undviks också behovet av mer noggrann träning ord för ord.

Meta AI släppte modellen och data offentligt så förhoppningsvis kommer andra forskare att bygga vidare på deras arbete.

Bli en del av framtiden


PRENUMERERA IDAG

Tydlig, kortfattad och heltäckande. Få grepp om AI-utvecklingen med DagligaAI

Eugene van der Watt

Eugene kommer från en bakgrund som elektronikingenjör och älskar allt som har med teknik att göra. När han tar en paus från att konsumera AI-nyheter hittar du honom vid snookerbordet.

×

GRATIS PDF EXKLUSIV
Ligg steget före med DailyAI

Registrera dig för vårt veckovisa nyhetsbrev och få exklusiv tillgång till DailyAI:s senaste e-bok: "Mastering AI Tools: Din 2024-guide till förbättrad produktivitet".

*Genom att prenumerera på vårt nyhetsbrev accepterar du vår Integritetspolicy och våra Villkor och anvisningar