Safe Superintelligence (SSI), een startup die mede is opgericht door voormalig OpenAI hoofdwetenschapper Ilya Sutskever, heeft $1 miljard aan financiering binnengehaald, slechts drie maanden na de oprichting.
Het bedrijf, dat "veilige" kunstmatige algemene intelligentie (AGI)-systemen wil ontwikkelen die de menselijke intelligentie overtreffen, heeft een waardering van ongeveer $5 miljard bereikt ondanks het feit dat het geen product heeft en slechts tien werknemers.
De financieringsronde, geleid door vooraanstaande durfkapitaalbedrijven waaronder Andreessen Horowitz, Sequoia Capital, DST Global en SV Angel, laat zien dat AI-ondernemingen nog steeds veel geld aantrekken.
Het weerlegt het scepticisme rond investeringen in de AI-sector.
Toen generatieve AI eind 2022 'mainstream' werd, dachten mensen dat het de wereld in een handomdraai zou veranderen.
Tot op zekere hoogte wel, maar het is nog vroeg dag voor investeerders. AI combedrijven die slechts enkele maanden geleden zijn opgericht, hebben miljarden dollars in contanten aangetrokken, maar het terugbetalen kan langer duren dan verwacht omdat bedrijven proberen hun producten te gelde te maken.
Dat alles terzijde, er is nog steeds een koele $1 miljard voor SSI. Sutskever zei zelf toen hij ontdekte dat het geen moeite zou hebben om geld in te zamelen.
Ex-OpenAI medeoprichter Sutskever richtte SSI in juni samen met Nat Friedman, Daniel Gross en Daniel Levy, een voormalig onderzoeker van OpenAI, op. Sutskever maakte deel uit van een reeks spraakmakende uittredingen van OpenAI.
Het bedrijf is van plan om de nieuw verworven fondsen te gebruiken om computerbronnen veilig te stellen en het team uit te breiden, met kantoren in Palo Alto, Californië, en Tel Aviv, Israël.
"We hebben een nieuwe berg gevonden die beklommen moet worden en die een beetje anders is dan waar ik eerder aan werkte", aldus Sutskever. vertelde de Financial Times.
"We proberen niet sneller hetzelfde pad te bewandelen. Als je iets anders doet, dan wordt het mogelijk om iets speciaals te doen."
SSI: Een unieke speler in de AI-sector
De missie van SSI staat in contrast met die van andere grote AI-spelers, zoals OpenAI, Anthropic en xAI van Elon Musk, die modellen ontwikkelen met brede consumenten- en zakelijke toepassingen.
In plaats daarvan richt SSI zich op wat het noemt een "directe weg naar veilige superintelligentie".
Wanneer het werd opgericht, SSI verklaardeSuperintelligentie is binnen handbereik. Het bouwen van veilige superintelligentie (SSI) is het belangrijkste technische probleem van onze tijd. We zijn het eerste SSI-laboratorium ter wereld begonnen, met één doel en één product: een veilige superintelligentie."
SSI is van plan om meerdere jaren te besteden aan onderzoek en ontwikkeling voordat het een product op de markt brengt.
"Het is belangrijk voor ons om omringd te zijn door investeerders die onze missie begrijpen, respecteren en steunen, namelijk om rechtstreeks naar veilige superintelligentie te gaan en in het bijzonder om een paar jaar R&D aan ons product te doen voordat we het op de markt brengen," aldus Gross, CEO van SSI, vertelde aan Reuters.
Dit stelt hen in staat om "rustig te schalen", zonder de druk van managementoverhead, productcycli en commerciële eisen op korte termijn.
Sommigen betwijfelen of 'veilige superintelligentie' conceptueel kan werken, maar deze unieke benadering wordt verwelkomd in een AI-sector die gedomineerd wordt door taalmodellen.
Natuurlijk zal de echte test liggen in het vermogen van SSI om zijn verheven doelen waar te maken en te navigeren door de complexe uitdagingen van het ontwikkelen van veilige, superintelligente AI-systemen.
Als deze kleine startup succesvol is, zal dit zeker verstrekkende gevolgen hebben voor de toekomst van AI en de impact ervan op de maatschappij.