Ilya Sutskever, de medeoprichter en voormalig hoofdwetenschapper van OpenAI, heeft de lancering aangekondigd van zijn nieuwe onderneming Safe Superintelligence Inc. (SSI).
Samen met medeoprichters Daniel Gross van Y Combinator en ex-OpenAI-engineer Daniel Levy richt Sutskever zich op wat zij beschouwen als het meest kritieke probleem op het gebied van AI: het ontwikkelen van een veilig en krachtig superintelligent AI-systeem.
Sutskever gelooft dat AI superintelligentie, een vage term voor AI die de menselijke intelligentie evenaart of overtreft, binnen tien jaar mogelijk zal zijn.
De verklaring van het bedrijfgepost door Sutskever op X, verklaart: "Superintelligentie is binnen handbereik. Het bouwen van veilige superintelligentie (SSI) is het belangrijkste technische probleem van onze tijd. We zijn het eerste SSI-laboratorium ter wereld begonnen, met één doel en één product: een veilige superintelligentie."
Ik begin een nieuw bedrijf: https://t.co/BG3K3SI3A1
- Ilja Sutskever (@ilyasut) 19 juni 2024
De oprichters beschrijven SSI niet alleen als hun missie, maar ook als hun naam en hele product roadmap.
"SSI is onze missie, onze naam en onze hele product roadmap, omdat het onze enige focus is. Ons team, onze investeerders en ons bedrijfsmodel zijn allemaal afgestemd op het bereiken van SSI," luidt de verklaring.
Een tegenstelling tot OpenAI?
Hoewel Sutskever en OpenAI CEO Sam Altman in het openbaar wederzijds respect hebben getoond, wijzen recente gebeurtenissen op onderliggende spanningen.
Sutskever speelde een belangrijke rol in de poging om Altmanwaarvan hij later verklaarde dat hij er spijt van had. Sutskever nam formeel ontslag in mei, nadat hij een laag profiel had gehouden waardoor toeschouwers zich afvroegen waar hij was.
Na bijna tien jaar heb ik besloten om te stoppen met OpenAI. Het traject van het bedrijf is niets minder dan wonderbaarlijk geweest en ik heb er alle vertrouwen in dat OpenAI zal AGI opbouwen die zowel veilig als voordelig is onder het leiderschap van @sama, @gdb, @miramurati en nu, onder de...
- Ilja Sutskever (@ilyasut) 14 mei 2024
Dit incident en het vertrek van andere belangrijke onderzoekers op grond van veiligheidsproblemen bij OpenAI roept vragen op over de prioriteiten en de koers van het bedrijf.
OpenAI's "superalignment team", belast met het afstemmen van AI op menselijke waarden en voordelen, was praktisch ontmanteld nadat Sutskever en medeonderzoeker Jan Leike het bedrijf dit jaar verlieten.
Sutskevers beslissing om te vertrekken lijkt voort te komen uit zijn wens om een project na te jagen dat beter aansluit bij zijn visie op de toekomst van AI-ontwikkeling - een visie waarin OpenAI lijkt te falen omdat het afglijdt van zijn doel. fundamentele beginselen.
Veiligheid voorop AI
De risico's van AI zijn zeer omstreden.
Hoewel de mensheid een oerdrang heeft om bang te zijn voor kunstmatige systemen die intelligenter zijn dan wij - een volkomen terecht sentiment - denken niet alle AI-onderzoekers dat dit in de nabije toekomst mogelijk is.
Een belangrijk punt is echter dat het verwaarlozen van de risico's nu rampzalige gevolgen kan hebben in de toekomst.
SSI is van plan om veiligheid gelijktijdig aan te pakken met het ontwikkelen van AI: "We benaderen veiligheid en mogelijkheden in tandem, als technische problemen die moeten worden opgelost door revolutionaire technische en wetenschappelijke doorbraken. We zijn van plan om de mogelijkheden zo snel mogelijk te verbeteren, terwijl we ervoor zorgen dat onze veiligheid altijd voorop blijft lopen", leggen de oprichters uit.
We zullen veilige superintelligentie nastreven in een rechte lijn, met één focus, één doel en één product. We zullen het doen door revolutionaire doorbraken die worden geproduceerd door een klein doorgeslagen team. Sluit je bij ons aan: https://t.co/oYL0EcVED2
- Ilja Sutskever (@ilyasut) 19 juni 2024
Deze aanpak stelt SSI in staat om "in alle rust te schalen", zonder de afleidingen van managementoverhead, productcycli en commerciële druk op de korte termijn.
"Onze unieke focus betekent dat we niet worden afgeleid door managementoverhead of productcycli, en ons bedrijfsmodel betekent dat veiligheid, beveiliging en vooruitgang niet worden beïnvloed door commerciële druk op de korte termijn", benadrukt de verklaring.
Een dreamteam samenstellen
Om hun doelen te bereiken, stelt SSI een "lean, cracked team van 's werelds beste ingenieurs en onderzoekers samen dat zich richt op SSI en niets anders".
"We zijn een Amerikaans bedrijf met kantoren in Palo Alto en Tel Aviv, waar we diep geworteld zijn en technisch toptalent kunnen werven", aldus de verklaring.
"Als jij dat bent, bieden wij de kans om je levenswerk te doen en te helpen de belangrijkste technische uitdaging van onze tijd op te lossen."
Met SSI voegt nog een speler zich bij het steeds groter wordende gebied van AI.
Het zal erg interessant zijn om te zien wie zich bij SSI aansluit, en vooral of er een sterke beweging is van talent vanuit OpenAI.