I Joe Rogans podcast ga OpenAIs administrerende direktør Sam Altman et fristende bilde av en fremtid der nevrale enheter bygger bro mellom tanke og kommunikasjon.
På podcasten Joe Rogan Experience presenterte Altman sin visjon for en fremtid der nevrale enheter, sammen med avansert AI som GPT-5 eller 6, potensielt kan visualisere og vise en persons indre monolog.
Han bemerket: "Jeg tror vi kan gjøre [ting] som å lese tankene dine med en ekstern enhet på et eller annet tidspunkt, [som] å lese din indre monolog."
Altman sa at disse enhetene kan vise en "suppe" av ord rett i brukerens synsfelt.
"I synsfeltet ditt, hvis ordene som svar ble vist, ville det være pong. Det er fortsatt suppe, [men] det er et veldig verdifullt verktøy å ha", kommenterte han, og understreket at en slik utvikling er "uunngåelig".
Se Sam Altmans samtale med Joe Rogan nedenfor:
Disse teknologiene minner om Elon Musks Neuralink, som har møtt mange hindringer, blant annet ble det avvist av de amerikanske legemiddelmyndighetene (FDA) i slutten av 2022.
Disse enhetene under paraplyen hjerne-maskin-grensesnitt (BFI) har gjort store fremskritt i år, med AI-modeller som hjelper forskere "lese tanker" på en ikke-invasiv måte.
Senest denne uken har forskere brukt AI til å avkode tale fra ikke-invasive hjerneopptak. AI-integrert BFI-teknologi er svært lovende når det gjelder gjenopprette tale og bevegelse til personer med hjerneskader eller nevrodegenerative sykdommer som ALS.
Når det gjelder vår voksende symbiose med teknologien, bemerket Altman: "Vi er allerede litt på vei i den retningen. Hvis du for eksempel tar fra noen telefonen, og de må fungere i verden i dag, har de en ulempe i forhold til alle andre."
Han antok at den virtuelle virkeligheten i nær fremtid kan bli så oppslukende at noen mennesker sjelden vil ønske å koble fra, og sammenlignet det med den moderne smarttelefonens tilstedeværelse i livene våre.