Under en Q&A-session på OpenAI:s utvecklarkonferens nyligen gav VD Sam Altman insikter i utvecklingen av nästa generations AI-modell, GPT-5.
Altman lyfte fram de pågående utmaningarna inom AI-utvecklingen och betonade behovet av mer datorkraft och att lösa komplexa vetenskapliga problem innan GPT-5 kan bli verklighet.
Han diskuterade den snabba utvecklingen av OpenAI:s modeller, från GPT-2, som få personer utanför branschen hade hört talas om, till GPT-3, som fokuserar på textgenerering, och GPT-4, som är skicklig inom ett bredare spektrum av kategorier.
Med OpenAI:s lansering av GPT-4 Turbo och funktionen "GPTs", som gör det möjligt för användare att skapa sina egna agenter med hjälp av naturliga språkmeddelanden, har 2023 inneburit en imponerande utveckling inom OpenAI:s ekosystem.
Altman uttryckte att GPT-5 skulle få nuvarande AI att se "gammaldags" ut och att den skulle stödja "det mesta man kan tänkas vilja bygga".
Sam Altman: "Vi hoppas att ni kommer tillbaka nästa år. Det vi lanserar i dag kommer att se väldigt gammaldags ut jämfört med det vi håller på att skapa åt er nu." pic.twitter.com/nUAQH1De5i
- Smoke-awayway (@SmokeAwayyy) 6 november 2023
GPT-5:s natur är fortfarande ett ämne för spekulationer, med rykten om dess multimodala kapacitet och potentiella funktioner som självkorrigering och en viss grad av självmedvetenhet.
Dessa spekulationer, som drivs av branschinsiders som Brian Roemmele, målar upp en spännande bild av vad GPT-5 kan erbjuda, även om OpenAI ännu inte har bekräftat något.
Bill Gates befarar AI-platå
Microsofts grundare Bill Gates, i en nyligen genomförd intervju med Handelsblatt, uttryckte skepsis mot utvecklingen från GPT-4 till GPT-5.
Han föreslog att den nuvarande generativa AI:n kan ha nått en platå, trots att många på OpenAI, inklusive VD Sam Altman, är av motsatt uppfattning.
Gates ansåg att den betydande kvalitetshöjningen från GPT-2 till GPT-4 var "otrolig", men han är fortfarande osäker på om en sådan höjning kommer att upprepas med GPT-5.
För närvarande utvecklas AI-hårdvara fortfarande, men brute force-metoden att samla på sig bokstavligen tusentals GPU-chips är långt ifrån oändligt skalbar.
De kylprocesser som krävs för att träna kraftfulla AI-modeller slukar redan lika mycket vatten som en 'litet landenligt vissa beräkningar, så det är ytterligare ett hinder att ta sig över.
Även om det är oklart när OpenAI kommer att påbörja utbildning på GPT-5 eller släppa modellen, fokuserar företaget enligt uppgift på att förbättra modelleffektiviteten för att minska kostnaderna, vilket är av grundläggande betydelse för nästa generation av frontier-modeller.
Altman har tidigare sagt att bolaget "inte har börjat" träna GPT-5, men det finns stora spekulationer om att de har börjat träna i hemlighet. I själva verket kommer åtminstone en del av grundarbetet att ha lagts redan.
OpenAI har helt och hållet "omprofilerats" som ett AGI-företag, vilket framgår av ändringar på webbplatsens "Om"-sida och andra sidor.
Men med Altman som noterar en brist på databehandling och avsikten att säkerställa att AI är mindre kostsamt - vilket är ett av branschens främsta mål bland eskalerande kostnader - kan vi få vänta lite innan GPT-5 rullar ut.