Safe Superintelligence (SSI), ein vom ehemaligen OpenAI-Chefwissenschaftler Ilya Sutskever mitbegründetes Startup, hat sich nur drei Monate nach seiner Gründung eine Finanzierung in Höhe von $1 Mrd. gesichert.
Das Unternehmen, dessen Ziel es ist, "sichere" Systeme der künstlichen allgemeinen Intelligenz (AGI) zu entwickeln, die die menschliche Intelligenz übertreffen, hat eine Bewertung von etwa $5 Mrd. erreicht, obwohl es kein Produkt und nur zehn Mitarbeiter hat.
Die Finanzierungsrunde, die von hochkarätigen Risikokapitalfirmen wie Andreessen Horowitz, Sequoia Capital, DST Global und SV Angel angeführt wurde, zeigt, dass KI-Unternehmen immer noch viel Geld anziehen.
Sie widerlegt die Skepsis gegenüber Investitionen in den KI-Sektor.
Als die generative KI Ende 2022 zum "Mainstream" wurde, glaubte man, dass sie die Welt im Handumdrehen verändern würde.
Bis zu einem gewissen Grad schon, aber für die Anleger ist es noch zu früh. AI cnternehmen, die erst vor wenigen Monaten gegründet wurden, haben Milliarden von Dollar in die Kassen gespült, aber die Rückzahlung könnte länger dauern als erwartet, da die Unternehmen versuchen, ihre Produkte zu vermarkten.
Abgesehen davon bleiben immer noch $1 Milliarde für SSI übrig. Sutskever hat selbst gesagt, dass er keine Probleme haben würde, Geld zu beschaffen, wenn er es findet.
Ex-OpenAI Mitbegründer Sutskever gründete SSI im Juni zusammen mit den KI-Investoren Nat Friedman, Daniel Gross und Daniel Levy, einem ehemaligen OpenAI-Forscher. Sutskever war Teil einer Reihe von hochkarätige Abgänge von OpenAI.
Das Unternehmen plant, die neu erworbenen Mittel zur Sicherung von Computerressourcen und zum Ausbau seines Teams mit Büros in Palo Alto, Kalifornien, und Tel Aviv, Israel, zu verwenden.
"Wir haben einen neuen Berg identifiziert, den es zu erklimmen gilt und der sich ein wenig von dem unterscheidet, woran ich zuvor gearbeitet habe", so Sutskever gegenüber der Financial Times.
"Wir versuchen nicht, den gleichen Weg schneller zu gehen. Wenn man etwas anders macht, dann wird es möglich, etwas Besonderes zu machen".
SSI: Ein einzigartiger Akteur im KI-Sektor
Die Mission von SSI steht im Gegensatz zu der anderer großer KI-Akteure wie OpenAI, Anthropic und Elon Musks xAI, die Modelle mit breiten Anwendungen für Verbraucher und Unternehmen entwickeln.
Stattdessen konzentriert sich SSI auf das, was es einen "direkten Weg zur sicheren Superintelligenz" nennt.
Wann sie gegründet wurde, SSI erklärte"Superintelligenz ist zum Greifen nah. Der Aufbau einer sicheren Superintelligenz (SSI) ist das wichtigste technische Problem unserer Zeit. Wir haben das erste direkte SSI-Labor der Welt gegründet, mit einem Ziel und einem Produkt: eine sichere Superintelligenz."
SSI plant, mehrere Jahre in die Forschung und Entwicklung zu investieren, bevor es ein Produkt auf den Markt bringt.
"Es ist wichtig für uns, von Investoren umgeben zu sein, die unsere Mission verstehen, respektieren und unterstützen, nämlich den direkten Weg zu einer sicheren Superintelligenz zu beschreiten und insbesondere ein paar Jahre in die Forschung und Entwicklung unseres Produkts zu investieren, bevor wir es auf den Markt bringen", so Gross, CEO von SSI, gegenüber Reuters.
So können sie in Ruhe skalieren", frei vom Druck des Management-Overheads, der Produktzyklen und der kurzfristigen kommerziellen Anforderungen.
Manche bezweifeln, dass eine "sichere Superintelligenz" konzeptionell funktionieren kann, aber dieser einzigartige Ansatz wird in einem von Sprachmodellen dominierten KI-Sektor begrüßt.
Natürlich wird der wahre Test in der Fähigkeit von SSI liegen, seine hochgesteckten Ziele zu erreichen und die komplexen Herausforderungen der Entwicklung sicherer, superintelligenter KI-Systeme zu meistern.
Wenn dieses kleine Startup erfolgreich ist, wird es mit Sicherheit weitreichende Auswirkungen auf die Zukunft der KI und ihre Auswirkungen auf die Gesellschaft haben.