I Joe Rogans podcast gav OpenAI:s VD Sam Altman en spännande bild av en framtid där neurala enheter överbryggar klyftan mellan tanke och kommunikation.
I podcasten Joe Rogan Experience beskrev Altman sin vision för en framtid där neurala enheter, i kombination med avancerad AI som GPT-5 eller 6, potentiellt skulle kunna visualisera och visa en persons inre monolog.
Han konstaterade: "Jag tror att vi kan göra [saker] som att läsa dina tankar med en extern enhet vid någon tidpunkt, [som] att läsa din interna monolog."
Altman säger att dessa enheter skulle kunna visa en "soppa" av ord direkt i användarens synfält.
"I ditt synfält, om orden som du svarar på visades, skulle det vara pong. Det är fortfarande soppa, [men] det är ett mycket värdefullt verktyg att ha", kommenterade han och betonade att en sådan utveckling är "oundviklig".
Se Sam Altmans samtal med Joe Rogan nedan:
Dessa tekniker påminner om Elon Musks Neuralink, som har stött på många hinder, bland annat avvisades det av den amerikanska läkemedelsmyndigheten FDA i slutet av 2022.
Dessa enheter under paraplyet av hjärn-maskin-gränssnitt (BFI) har kommit med stormsteg i år, med AI-modeller som hjälper forskare "läsa tankar" på ett icke-invasivt sätt.
Bara den här veckan har forskare använt AI för att avkoda tal från icke-invasiva hjärninspelningar. AI-integrerad BFI-teknik är mycket lovande inom återställande av tal och rörelse för personer med hjärnskador eller neurodegenerativa sjukdomar som ALS.
När det gäller vår växande symbios med tekniken säger Altman: "Vi är redan en bit på väg. Om man till exempel tar ifrån någon telefonen och de måste fungera i världen idag, så är de i underläge i förhållande till alla andra."
Han antog att virtual reality inom en snar framtid kan bli så uppslukande att vissa individer sällan vill koppla bort sig, och jämförde det med den moderna smartphonens närvaro i våra liv.