Ilya Sutskever, medstifter og tidligere chefforsker i OpenAI, har annonceret lanceringen af sin nye virksomhed, Safe Superintelligence Inc. (SSI).
Sammen med medstifterne Daniel Gross fra Y Combinator og den tidligere OpenAI-ingeniør Daniel Levy har Sutskever til formål at løse det, de mener er det mest kritiske problem inden for AI: at udvikle et sikkert og kraftfuldt superintelligent AI-system.
Sutskever mener, at AI-superintelligens, et vagt udtryk for AI, der matcher eller overgår menneskelig intelligens, vil være mulig inden for ti år.
Den Virksomhedens erklæringsom Sutskever har lagt ud på X, erklærer: "Superintelligens er inden for rækkevidde. At bygge sikker superintelligens (SSI) er det vigtigste tekniske problem i vores tid. Vi har startet verdens første direkte SSI-laboratorium med ét mål og ét produkt: en sikker superintelligens."
Jeg er ved at starte en ny virksomhed: https://t.co/BG3K3SI3A1
- Ilya Sutskever (@ilyasut) 19. juni 2024
Grundlæggerne beskriver SSI som ikke bare deres mission, men også deres navn og hele produktkøreplanen.
"SSI er vores mission, vores navn og hele vores produktkøreplan, fordi det er vores eneste fokus. Vores team, investorer og forretningsmodel er alle indstillet på at opnå SSI," står der i erklæringen.
En modsætning til OpenAI?
Selv om Sutskever og OpenAI's CEO Sam Altman offentligt har udtrykt gensidig respekt, tyder de seneste begivenheder på underliggende spændinger.
Sutskever var medvirkende til, at forsøg på at afsætte Altmanhvilket han senere udtalte, at han fortrød. Sutskever trådte formelt tilbage i maj efter at have holdt en lav offentlig profil, der fik tilskuere til at undre sig over hans færden.
Efter næsten et årti har jeg taget beslutningen om at forlade OpenAI. Virksomhedens udvikling har været intet mindre end mirakuløs, og jeg er sikker på, at OpenAI vil opbygge AGI, der er både sikkert og gavnligt, under ledelse af @sama, @gdb, @miramurati Og nu, under...
- Ilya Sutskever (@ilyasut) 14. maj 2024
Denne hændelse og andre nøgleforskeres afgang med henvisning til sikkerhedsproblemer hos OpenAI rejser spørgsmål om virksomhedens prioriteter og retning.
OpenAI's "superalignment team", der har til opgave at tilpasse AI til menneskelige værdier og fordele, var praktisk talt afviklet efter at Sutskever og forskerkollegaen Jan Leike forlod virksomheden i år.
Sutskevers beslutning om at forlade os synes at skyldes hans ønske om at forfølge et projekt, der ligger tættere på hans vision for fremtidens udvikling af kunstig intelligens - en vision, som OpenAI tilsyneladende ikke lever op til, da det er på vej væk fra sit mål. Grundlæggende principper.
Sikkerhed først AI
Risikoen ved kunstig intelligens er meget omdiskuteret.
Mens menneskeheden har en primal trang til at frygte kunstige systemer, der er mere intelligente end os - en helt fair følelse - er det ikke alle AI-forskere, der tror, at det er muligt i den nærmeste fremtid.
En vigtig pointe er dog, at det kan være ødelæggende i fremtiden at negligere risiciene nu.
SSI har til hensigt at håndtere sikkerhed samtidig med udviklingen af AI: "Vi ser sikkerhed og kapacitet som tekniske problemer, der skal løses gennem revolutionerende tekniske og videnskabelige gennembrud. Vi planlægger at udvikle kapaciteter så hurtigt som muligt, samtidig med at vi sørger for, at vores sikkerhed altid er i front", forklarer grundlæggerne.
Vi vil gå direkte efter sikker superintelligens med ét fokus, ét mål og ét produkt. Vi vil gøre det gennem revolutionerende gennembrud produceret af et lille team af crackere. Kom og vær med: https://t.co/oYL0EcVED2
- Ilya Sutskever (@ilyasut) 19. juni 2024
Denne tilgang gør det muligt for SSI at "skalere i fred", fri for distraktioner fra ledelsens overhead, produktcyklusser og kortsigtet kommercielt pres.
"Vores enestående fokus betyder, at vi ikke bliver distraheret af ledelsens overhead eller produktcyklusser, og vores forretningsmodel betyder, at sikkerhed og fremskridt er isoleret fra kortsigtet kommercielt pres", understreges det i erklæringen.
Sammensætning af et drømmehold
For at nå deres mål er SSI ved at samle et "magert, spaltet team af verdens bedste ingeniører og forskere, der er dedikeret til at fokusere på SSI og intet andet."
"Vi er en amerikansk virksomhed med kontorer i Palo Alto og Tel Aviv, hvor vi har dybe rødder og evnen til at rekruttere de bedste tekniske talenter", hedder det i erklæringen.
"Hvis det er dig, tilbyder vi en mulighed for at gøre dit livs arbejde og hjælpe med at løse den vigtigste tekniske udfordring i vores tid."
Med SSI slutter endnu en aktør sig til det stadigt voksende AI-felt.
Det bliver meget interessant at se, hvem der slutter sig til SSI, og især om der er en stærk bevægelse af talent fra OpenAI.