I Joe Rogans podcast gav OpenAI's CEO Sam Altman et spændende bud på en fremtid, hvor neurale enheder bygger bro mellem tanke og kommunikation.
I podcasten Joe Rogan Experience beskrev Altman sin vision for en fremtid, hvor neurale enheder sammen med avanceret AI som GPT-5 eller 6 potentielt kan visualisere og vise en persons indre monolog.
Han bemærkede: "Jeg tror, vi kan gøre [ting] som at læse dine tanker med en ekstern enhed på et tidspunkt, [som] at læse din indre monolog."
Altman sagde, at disse enheder kunne vise en "suppe" af ord lige i brugerens synsfelt.
"I dit synsfelt ville ordene som svar blive vist, det ville være pong. Det er stadig suppe, [men] det er et meget værdifuldt værktøj at have," kommenterede han og understregede, at en sådan udvikling er "uundgåelig".
Se Sam Altmans samtale med Joe Rogan nedenfor:
Disse teknologier minder om Elon Musks Neuralink, som har mødt mange forhindringer, herunder at blive afvist af den amerikanske fødevare- og lægemiddelstyrelse (FDA) i slutningen af 2022.
Disse enheder under paraplyen hjerne-maskine-grænseflader (BFI'er) er kommet med stormskridt i år, hvor AI-modeller hjælper forskere 'Læs tanker' på en ikke-invasiv måde.
Så sent som i denne uge har forskere brugt AI til at afkode tale fra ikke-invasive hjerneoptagelser. AI-integreret BFI-teknologi er enormt lovende inden for genskabe tale og bevægelse til personer med hjerneskader eller neurodegenerative sygdomme som ALS.
Med hensyn til vores voksende symbiose med teknologien bemærkede Altman: "Vi er allerede lidt nede ad den sti. Hvis du f.eks. tager telefonen fra nogen, og de skal fungere i verden i dag, er de dårligere stillet end alle andre."
Han antog, at virtual reality i den nærmeste fremtid kan blive så omsluttende, at nogle mennesker sjældent vil have lyst til at afbryde forbindelsen, og sammenlignede det med den moderne smartphones tilstedeværelse i vores liv.