OpenAI-Mitbegründer Ilya Sutskever gründet neues Startup Safe Superintelligence Inc.

Juni 20, 2024

  • Ilya Sutskever, ehemaliger Mitbegründer von OpenAI, hat ein neues Startup gegründet
  • Safe Superintelligence Inc. (SSI) beabsichtigt, völlig sichere superintelligente Systeme zu bauen
  • Dies geschieht vor dem Hintergrund, dass OpenAI dafür kritisiert wird, die Sicherheit in den Hintergrund zu stellen
SSI AI

Ilya Sutskever, Mitbegründer und ehemaliger Chefwissenschaftler von OpenAI, hat die Gründung seines neuen Unternehmens Safe Superintelligence Inc. (SSI) angekündigt. 

Zusammen mit den Mitbegründern Daniel Gross von Y Combinator und dem ehemaligen OpenAI-Ingenieur Daniel Levy will Sutskever das ihrer Meinung nach kritischste Problem im Bereich der KI angehen: die Entwicklung eines sicheren und leistungsstarken superintelligenten KI-Systems.

Sutskever glaubt, dass KI-Superintelligenz, ein vager Begriff für KI, die der menschlichen Intelligenz entspricht oder sie übertrifft, innerhalb von zehn Jahren möglich sein wird.

Die Unternehmenserklärungdas von Sutskever auf X veröffentlicht wurde, erklärt: "Superintelligenz ist in Reichweite. Der Aufbau einer sicheren Superintelligenz (SSI) ist das wichtigste technische Problem unserer Zeit. Wir haben das erste direkte SSI-Labor der Welt gegründet, mit einem Ziel und einem Produkt: eine sichere Superintelligenz."

Die Gründer beschreiben SSI nicht nur als ihre Mission, sondern auch als ihren Namen und ihre gesamte Produkt-Roadmap. 

"SSI ist unsere Mission, unser Name und unsere gesamte Produkt-Roadmap, denn es ist unser einziger Fokus. Unser Team, unsere Investoren und unser Geschäftsmodell sind alle darauf ausgerichtet, SSI zu erreichen", heißt es in der Erklärung.

Eine Antithese zu OpenAI?

Obwohl Sutskever und OpenAI-CEO Sam Altman öffentlich gegenseitigen Respekt bekundet haben, deuten die jüngsten Ereignisse auf unterschwellige Spannungen hin. 

Sutskever war maßgeblich an der Verdrängungsversuch Altmandie er später als bedauerlich bezeichnete. Sutskever trat im Mai offiziell zurück, nachdem er sich in der Öffentlichkeit zurückgehalten hatte, so dass sich die Zuschauer über seinen Verbleib wunderten. 

Dieser Vorfall und das Ausscheiden anderer wichtiger Forscher, die Sicherheitsbedenken bei OpenAI anführten, wirft Fragen zu den Prioritäten und der Ausrichtung des Unternehmens auf. 

Das "Superalignment-Team" von OpenAI, das die Aufgabe hat, die KI an den menschlichen Werten und Vorteilen auszurichten, war praktisch zerlegt nachdem Sutskever und sein Forscherkollege Jan Leike das Unternehmen in diesem Jahr verlassen haben. 

Sutskevers Entscheidung, das Projekt zu verlassen, scheint auf seinem Wunsch zu beruhen, ein Projekt zu verfolgen, das seiner Vision für die Zukunft der KI-Entwicklung besser entspricht - eine Vision, an der OpenAI scheinbar scheitert, da es sich von seinem Grundprinzipien

Sicherheitsorientierte KI

Die Risiken im Zusammenhang mit der KI sind sehr umstritten. 

Zwar hat die Menschheit einen Urtrieb, sich vor künstlichen Systemen zu fürchten, die intelligenter sind als wir - ein durchaus berechtigtes Gefühl - doch nicht alle KI-Forscher halten dies in naher Zukunft für möglich. 

Ein wichtiger Punkt ist jedoch, dass die Vernachlässigung der Risiken jetzt verheerende Folgen für die Zukunft haben könnte.

SSI beabsichtigt, die Sicherheit gleichzeitig mit der Entwicklung von KI anzugehen: "Wir gehen Sicherheit und Fähigkeiten gemeinsam an, als technische Probleme, die durch revolutionäre technische und wissenschaftliche Durchbrüche gelöst werden müssen. Wir planen, die Fähigkeiten so schnell wie möglich voranzutreiben und gleichzeitig sicherzustellen, dass unsere Sicherheit immer an erster Stelle steht", erklären die Gründer.

Dieser Ansatz ermöglicht es SSI, "in Ruhe zu skalieren", frei von Ablenkungen durch Management-Overhead, Produktzyklen und kurzfristigen kommerziellen Druck. 

"Unser einzigartiger Fokus bedeutet, dass wir uns nicht durch Management-Overhead oder Produktzyklen ablenken lassen, und unser Geschäftsmodell bedeutet, dass Sicherheit und Fortschritt von kurzfristigen kommerziellen Zwängen unabhängig sind", heißt es in der Erklärung.

Zusammenstellung eines Dreamteams

Um ihre Ziele zu erreichen, stellt SSI ein "schlankes, hochkarätiges Team aus den besten Ingenieuren und Forschern der Welt zusammen, das sich auf SSI und nichts anderes konzentriert". 

"Wir sind ein amerikanisches Unternehmen mit Niederlassungen in Palo Alto und Tel Aviv, wo wir tief verwurzelt sind und die Möglichkeit haben, technische Spitzenkräfte zu rekrutieren", heißt es in der Erklärung. 

"Wenn Sie das sind, bieten wir Ihnen die Möglichkeit, Ihr Lebenswerk zu vollbringen und zur Lösung der wichtigsten technischen Herausforderung unserer Zeit beizutragen."

Mit SSI stößt ein weiterer Akteur in das sich ständig erweiternde Feld der KI.

Es wird sehr interessant sein zu sehen, wer sich SSI anschließt, und insbesondere, ob es eine starke Bewegung von Talenten von OpenAI gibt.

Join The Future


HEUTE ABONNIEREN

Klar, prägnant, umfassend. Behalten Sie den Überblick über KI-Entwicklungen mit DailyAI

Sam Jeans

Sam ist ein Wissenschafts- und Technologiewissenschaftler, der in verschiedenen KI-Startups gearbeitet hat. Wenn er nicht gerade schreibt, liest er medizinische Fachzeitschriften oder kramt in Kisten mit Schallplatten.

×

KOSTENLOSES PDF EXKLUSIV
Mit DailyAI immer einen Schritt voraus

Melden Sie sich für unseren wöchentlichen Newsletter an und erhalten Sie exklusiven Zugang zum neuesten eBook von DailyAI: 'Mastering AI Tools: Ihr Leitfaden für mehr Produktivität im Jahr 2024".

*Mit der Anmeldung zu unserem Newsletter akzeptieren Sie unsere Datenschutzbestimmungen und unsere Bedingungen und Konditionen