Ilya Sutskever, medgrundare och tidigare forskningschef på OpenAI, har meddelat att han lanserar sitt nya företag Safe Superintelligence Inc (SSI).
Tillsammans med medgrundarna Daniel Gross från Y Combinator och den tidigare OpenAI-ingenjören Daniel Levy vill Sutskever ta itu med vad de anser vara det mest kritiska problemet inom AI-området: att utveckla ett säkert och kraftfullt superintelligent AI-system.
Sutskever tror att AI-superintelligens, en vag term för AI som matchar eller överträffar mänsklig intelligens, kommer att vara möjlig inom tio år.
Den företagets uttalande, publicerad av Sutskever på X, förklarar: "Superintelligens är inom räckhåll. Att bygga säker superintelligens (SSI) är det viktigaste tekniska problemet i vår tid. Vi har startat världens första direkta SSI-labb, med ett mål och en produkt: en säker superintelligens."
Jag ska starta ett nytt företag: https://t.co/BG3K3SI3A1
- Ilya Sutskever (@ilyasut) 19 juni 2024
Grundarna beskriver SSI som inte bara deras uppdrag utan också deras namn och hela produktplanen.
"SSI är vårt uppdrag, vårt namn och hela vår produktfärdplan, eftersom det är vårt enda fokus. Vårt team, våra investerare och vår affärsmodell är alla inriktade på att uppnå SSI", heter det i uttalandet.
En motsats till OpenAI?
Även om Sutskever och OpenAI:s VD Sam Altman offentligt har uttryckt ömsesidig respekt, tyder den senaste tidens händelser på underliggande spänningar.
Sutskever var en viktig del av försök att avsätta Altman, vilket han senare uppgav att han ångrade. Sutskever avgick formellt i maj, efter att ha hållit en låg offentlig profil som fick åskådare att undra var han befann sig.
Efter nästan ett decennium har jag fattat beslutet att lämna OpenAI. Bolagets utveckling har varit inget annat än mirakulös, och jag är övertygad om att OpenAI kommer att bygga ett AGI som är både säkert och fördelaktigt under ledning av @sama, @gdb, @miramurati och nu, under...
- Ilya Sutskever (@ilyasut) 14 maj 2024
Denna incident och andra viktiga forskares avgång med hänvisning till säkerhetsproblem på OpenAI väcker frågor om företagets prioriteringar och inriktning.
OpenAI:s "superalignment team", som har till uppgift att anpassa AI till mänskliga värden och fördelar, var praktiskt taget nedmonterad efter att Sutskever och forskarkollegan Jan Leike lämnat bolaget i år.
Sutskevers beslut att lämna verkar bero på hans önskan att driva ett projekt som ligger närmare hans vision för framtidens AI-utveckling - en vision där OpenAI till synes misslyckas eftersom det driver från sin Grundläggande principer.
AI med säkerhet i fokus
Riskerna med AI är omdiskuterade.
Även om mänskligheten har en primitiv drift att frukta artificiella system som är mer intelligenta än oss - en helt rättvis känsla - är det inte alla AI-forskare som tror att detta är möjligt inom en snar framtid.
En viktig poäng är dock att det kan bli förödande i framtiden om man inte tar hänsyn till riskerna nu.
SSI avser att ta itu med säkerheten samtidigt som man utvecklar AI: "Vi ser på säkerhet och kapacitet parallellt, som tekniska problem som ska lösas genom revolutionerande tekniska och vetenskapliga genombrott. Vi planerar att utveckla kapaciteten så snabbt som möjligt samtidigt som vi ser till att vår säkerhet alltid ligger i framkant", förklarar grundarna.
Vi kommer att sträva efter säker superintelligens i en rak linje, med ett fokus, ett mål och en produkt. Vi kommer att göra det genom revolutionerande genombrott som produceras av ett litet team. Anslut dig till oss: https://t.co/oYL0EcVED2
- Ilya Sutskever (@ilyasut) 19 juni 2024
Detta tillvägagångssätt gör att SSI kan "skala i lugn och ro", utan att distraheras av administrativa kostnader, produktcykler och kortsiktiga kommersiella påtryckningar.
"Vårt unika fokus innebär att vi inte distraheras av ledningens overhead eller produktcykler, och vår affärsmodell innebär att säkerhet, trygghet och framsteg är isolerade från kortsiktiga kommersiella påtryckningar", betonas det i uttalandet.
Att sätta samman ett drömteam
För att uppnå sina mål sätter SSI samman ett "slimmat, spetsigt team med världens bästa ingenjörer och forskare som är dedikerade till att fokusera på SSI och inget annat".
"Vi är ett amerikanskt företag med kontor i Palo Alto och Tel Aviv, där vi har djupa rötter och möjlighet att rekrytera tekniska topptalanger", heter det i pressmeddelandet.
"Om det är du, erbjuder vi en möjlighet att göra ditt livsverk och hjälpa till att lösa vår tids viktigaste tekniska utmaning."
Med SSI ansluter sig ännu en aktör till det ständigt växande AI-området.
Det kommer att bli mycket intressant att se vilka som ansluter sig till SSI, och särskilt om det finns en stark rörelse av talanger från OpenAI.