Ilya Sutskever und Jan Leike von OpenAIDas "Superalignment"-Team des Unternehmens trat diese Woche zurück und warf damit einen Schatten auf das Engagement des Unternehmens für eine verantwortungsvolle KI-Entwicklung unter CEO Sam Altman.
Vor allem Leike nahm kein Blatt vor den Mund. "In den letzten Jahren sind Sicherheitskultur und -prozesse gegenüber glänzenden Produkten in den Hintergrund getreten", erklärte er in einer Abschiedsrede und bestätigte damit das Unbehagen der Beobachter OpenAIdas Streben nach fortgeschrittener KI.
Gestern war mein letzter Tag als Head of Alignment, Superalignment Lead und Executive OpenAI?ref_src=twsrc%5Etfw”>@OpenAI.
- Jan Leike (@janleike) 17. Mai 2024
Sutskever und Leike sind der jüngste Eintrag in einer immer länger werdenden Liste von hochkarätigen Umbesetzungen bei OpenAI.
Seit November 2023, wenn Altman einen Putschversuch in der Vorstandsetage knapp überlebt hat, sind mindestens fünf weitere wichtige Mitglieder des Superalignment-Teams entweder ausgeschieden oder wurden aus dem Unternehmen gedrängt:
- Daniel Kokotajlo, der seit OpenAI der 2022 in der Hoffnung, das Unternehmen in Richtung einer verantwortungsvollen Entwicklung künstlicher Intelligenz (AGI) zu lenken - einer hochgradig fähigen KI, die unserer eigenen Kognition entspricht oder sie sogar übertrifft -, im April 2024 kündigte, nachdem er das Vertrauen in die Fähigkeit der Führung verloren hatte, "verantwortungsvoll mit AGI umzugehen".
- Leopold Aschenbrenner und Pavel Izmailov, Mitglieder des Superalignment-Teams, wurden angeblich letzten Monat entlassen, weil sie Informationen "durchsickern" ließen, obwohl OpenAI hat keine Beweise für ein Fehlverhalten vorgelegt. Insider spekulieren, dass sie ins Visier genommen wurden, weil sie Verbündete von Sutskever sind.
- Cullen O'Keefe, ein weiterer Sicherheitsforscher, verließ das Unternehmen im April.
- William Saunders im Februar zurückgetreten ist aber offenbar durch eine Nichtveröffentlichungsvereinbarung daran gebunden, seine Gründe zu erörtern.
Amid these developments, OpenAI hat angeblich damit gedroht, den Mitarbeitern ihre Aktienrechte zu entziehen, wenn sie das Unternehmen kritisieren oder Altman selbst, laut Vox.
Das hat es schwer gemacht, das Thema wirklich zu verstehen. OpenAI, but Es gibt Anzeichen dafür, dass die Initiativen für Sicherheit und Angleichung scheitern, falls sie überhaupt jemals aufrichtig waren.
OpenAIDie umstrittene Handlung verdichtet sich
OpenAIDas Unternehmen wurde 2015 von Elon Musk und Sam AltmanEr setzte sich konsequent für Open-Source-Forschung und verantwortungsvolle KI-Entwicklung ein.
Doch während sich die Vision des Unternehmens in den letzten Jahren erweitert hat, hat es sich hinter verschlossene Türen zurückgezogen. Im Jahr 2019, OpenAI offiziell den Übergang von einer ein gemeinnütziges Forschungslabor in eine Einrichtung mit "begrenztem Gewinn" umzuwandelnDies schürt die Sorge, dass die Kommerzialisierung über die Transparenz gestellt wird.
Seitdem, OpenAI hat seine Forschungen und Modelle mit eisernen Geheimhaltungsvereinbarungen und der Androhung rechtlicher Schritte gegen Mitarbeiter, die es wagen, sich zu äußern, geschützt.
Zu den weiteren wichtigen Kontroversen in der kurzen Geschichte des Start-ups gehören:
- Im Jahr 2019, OpenAI verblüffte die KI-Gemeinschaft mit der Umwandlung von einem gemeinnützigen Forschungslabor in ein Unternehmen mit Gewinnbeteiligung, was eine deutliche Abkehr von seinen Gründungsprinzipien darstellt.
- Letztes Jahr wurden Berichte über Treffen hinter verschlossenen Türen zwischen OpenAI und Militär- und Verteidigungsorganisationen.
- AltmanSeine sprunghaften Tweets haben Aufsehen erregt. Sie reichen von Überlegungen zu KI-gesteuerter globaler Governance bis hin zum Eingeständnis existenzieller Risiken in einer Weise, die ihn als Pilot eines Schiffes darstellt, das er ohnehin nicht steuern kann.
- Der schwerste Schlag für die AltmanSutskever war selbst Teil einer Gruppe, die sich mit der gescheiterter Putsch in der Vorstandsetage im November 2023, die auf die Absetzung des CEO abzielte. Altman Es ist ihm gelungen, sich an der Macht zu halten, und er hat gezeigt, dass er mit dem Unternehmen auf eine Weise verbunden ist, die selbst für den Vorstand nicht leicht zu überwinden ist.
Dramen in der Vorstandsetage und Gründerkrisen sind im Silicon Valley keine Seltenheit, OpenAIIhre Arbeit könnte, wie sie selbst zugeben, für die globale Gesellschaft von entscheidender Bedeutung sein.
Die Öffentlichkeit, die Aufsichtsbehörden und die Regierungen wünschen sich eine konsistente, kontroversenfreie Verwaltung bei OpenAIaber die kurze, turbulente Geschichte des Start-ups lässt alles andere vermuten.
OpenAI wird zum Antihelden der generativen KI
Während Sesseldiagnosen und Rufmord an Altman unverantwortlich sind, werfen seine Berichte über Manipulationen und sein Streben nach persönlichen Visionen auf Kosten von Mitarbeitern und des öffentlichen Vertrauens unbequeme Fragen auf.
Dies spiegelt sich in Gesprächen über Altman und sein Unternehmen sind über X, Reddit und das Y Combinator-Forum zunehmend bösartig geworden.
Obwohl Tech-Bosse oft polarisieren, gewinnen sie in der Regel Anhänger, wie Elon Musk als einer der provokanteren Typen beweist. Andere, wie Microsoft CEO Satya NadellaSie gewinnen Respekt für ihre Unternehmensstrategie und ihren kontrollierten, reifen Führungsstil.
Wir sollten auch erkennen, wie andere KI-Startups, wie AnthropicTrotz ihrer großen Erfolge in der generativen KI-Branche halten sich die beiden Unternehmen ziemlich bedeckt. OpenAIAndererseits behält die generative KI eine intensive, kontroverse Anziehungskraft, die sie in der Öffentlichkeit hält, was weder ihrem Image noch dem Image der generativen KI als Ganzes zugute kommt.
Letztendlich sollten wir es so sagen, wie es ist. OpenAIDie Geheimniskrämerei des Unternehmens hat dazu beigetragen, dass man den Eindruck hat, das Unternehmen sei nicht länger ein ehrlicher Akteur im Bereich der künstlichen Intelligenz.
Iie Öffentlichkeit fragt sich, ob generative KI die Gesellschaft nicht eher aushöhlen als ihr helfen könnte. Es sendet die Botschaft, dass die Entwicklung von AGI eine Angelegenheit ist, die hinter verschlossenen Türen stattfindet, ein Spiel, das von Tech-Eliten gespielt wird, die sich wenig um die weiteren Auswirkungen kümmern.
Die moralische Lizenzierung der Tech-Industrie
Moralische Lizenzen sind seit langem ein Problem in der Tech-Industrie, wo der vermeintliche Adel der aktuellen Unternehmensmission zur Rechtfertigung ethischer Kompromisse herangezogen wird.
Von Facebooks "move fast and break things"-Mantra bis hin zu Googles "don't be evil"-Slogan haben sich Tech-Giganten immer wieder auf die Sprache des Fortschritts und des sozialen Wohls berufen, während sie gleichzeitig fragwürdige Praktiken anwandten.
OpenAIDie Mission der Firma, AGI "zum Nutzen der gesamten Menschheit" zu erforschen und zu entwickeln, ist vielleicht die ultimative Form der moralischen Lizenzierung.
Das Versprechen einer Technologie, die die größten Herausforderungen der Welt lösen und eine Ära nie dagewesenen Wohlstands einleiten könnte, ist verführerisch. Sie appelliert an unsere tiefsten Hoffnungen und Träume und zapft den Wunsch an, einen dauerhaften, positiven Einfluss auf die Welt zu haben.
Doch genau darin liegt die Gefahr. Wenn so viel auf dem Spiel steht und die potenziellen Gewinne so groß sind, wird es nur allzu leicht, Abstriche zu rechtfertigen, ethische Grenzen zu umgehen und Kritik im Namen eines "höheren Gutes" zu verwerfen, das kein Einzelner oder eine kleine Gruppe definieren kann, auch nicht mit allen Mitteln und Forschungen der Welt.
Dies ist die Falle, die OpenAI zu verfallen droht. Indem sich das Unternehmen als Erfinder einer Technologie positioniert, die der gesamten Menschheit zugute kommen wird, hat es sich im Grunde einen Blankoscheck ausgestellt, um seine Vision mit allen Mitteln zu verfolgen.
Was können wir also gegen all das tun? Nun, Reden ist billig. Eine solide Unternehmensführung, ein ständiger fortschreitender Dialog und anhaltender Druck zur Verbesserung der Praktiken in der Branche sind entscheidend.
In Bezug auf OpenAI selbst, da der öffentliche Druck und die Medienkritik an OpenAI wachsen, Altmankönnte die Position der Kommission weniger haltbar werden.
Sollte er gehen oder abgesetzt werden, müssen wir hoffen, dass das riesige Vakuum, das er hinterlassen würde, mit etwas Positivem gefüllt wird.