Safe Superintelligence (SSI), en oppstartsbedrift som ble grunnlagt av den tidligere OpenAI-sjefforskeren Ilya Sutskever, har sikret seg $1 milliard i finansiering bare tre måneder etter at den ble grunnlagt.
Selskapet, som har som mål å utvikle "trygge" systemer for kunstig generell intelligens (AGI) som overgår menneskelig intelligens, har oppnådd en verdivurdering på rundt $5 milliarder kroner til tross for at det ikke har noe produkt og bare ti ansatte.
Finansieringsrunden, som ble ledet av ledende risikokapitalselskaper som Andreessen Horowitz, Sequoia Capital, DST Global og SV Angel, viser at AI-satsinger fortsatt tiltrekker seg store mengder penger.
Det trosser skepsisen rundt investeringer i AI-sektoren.
Da generativ AI ble "mainstream" i slutten av 2022, trodde folk at det ville forandre verden på et blunk.
Det har det til en viss grad, men det er fortsatt tidlig for investorene. AI companer som ble grunnlagt for bare noen måneder siden, har tiltrukket seg milliarder av dollar i kontanter, men det kan ta lengre tid enn forventet å betale dem tilbake når selskapene forsøker å tjene penger på produktene sine.
Hvis vi ser bort fra alt dette, er det fortsatt $1 milliard til SSI. Sutskever sa selv da han fant ut at det ikke ville ha noen problemer med å skaffe penger.
Eks...OpenAI medgrunnlegger Sutskever grunnla SSI i juni sammen med serieinvestorene Nat Friedman, Daniel Gross og Daniel Levy, en tidligere OpenAI-forsker. Sutskever var en del av en rekke høyt profilerte avganger fra OpenAI.
Selskapet planlegger å bruke de nyervervede midlene til å sikre databehandlingsressurser og utvide teamet, med kontorer i Palo Alto i California og Tel Aviv i Israel.
"Vi har identifisert et nytt fjell å bestige som er litt annerledes enn det jeg jobbet med tidligere", sier Sutskever fortalte Financial Times.
"Vi prøver ikke å gå den samme veien raskere. Hvis du gjør noe annerledes, blir det mulig for deg å gjøre noe spesielt."
SSI: En unik aktør i AI-sektoren
SSIs oppdrag står i kontrast til andre store AI-aktører, som OpenAI, Anthropic og Elon Musks xAI, som utvikler modeller med brede bruksområder for forbrukere og bedrifter.
I stedet fokuserer SSI på det de kaller en "direkte vei til trygg superintelligens".
Da den ble grunnlagt, SSI uttalte"Superintelligens er innen rekkevidde. Å bygge trygg superintelligens (SSI) er vår tids viktigste tekniske problem. Vi har startet verdens første SSI-laboratorium, med ett mål og ett produkt: en trygg superintelligens."
SSI planlegger å bruke flere år på forskning og utvikling før et produkt kan lanseres på markedet.
"Det er viktig for oss å være omgitt av investorer som forstår, respekterer og støtter vår misjon, som er å gå rett på vei mot sikker superintelligens, og ikke minst å bruke et par år på forskning og utvikling av produktet vårt før vi lanserer det på markedet", sier Gross, administrerende direktør i SSI, fortalte Reuters.
Dette gjør at de kan "skalere i fred", uten å bli presset av administrasjonskostnader, produktsykluser og kortsiktige kommersielle krav.
Noen stiller spørsmål ved om "trygg superintelligens" kan fungere konseptuelt, men denne unike tilnærmingen er velkommen i en AI-sektor som domineres av språkmodeller.
Den virkelige testen vil selvfølgelig ligge i SSIs evne til å levere på sine høye mål og navigere i de komplekse utfordringene med å utvikle trygge, superintelligente AI-systemer.
Hvis denne lille oppstartsbedriften lykkes, vil den definitivt få vidtrekkende konsekvenser for fremtidens AI og dens innvirkning på samfunnet.