OpenAI ermöglicht es dem Vorstand, die Modellfreigabeentscheidungen des CEO zu "überstimmen

Dezember 18, 2023

OpenAI-Verordnung

OpenAI hat kürzlich bekannt gegeben, dass der Vorstand die Befugnis hat, Entscheidungen des CEO über die Veröffentlichung neuer KI-Modelle zu überstimmen, selbst wenn diese von der Unternehmensleitung als sicher eingestuft wurden. 

Diese Informationen sind in einer Reihe von Leitlinien enthalten, die am Montag vorgestellt wurden und die Strategie des Unternehmens zur Bewältigung potenzieller extremer Risiken, die von seinen fortschrittlichsten KI-Systemen ausgehen, beschreiben. 

Während das Führungsteam zunächst über die Freigabe eines neuen KI-Systems entscheiden kann, behält sich der Vorstand das Recht vor, solche Entscheidungen rückgängig zu machen.

Sam Altman, der CEO von OpenAI, wurde entlassen und auf dramatische Weise wieder eingestellt, was eine merkwürdige Machtdynamik zwischen den Direktoren und den Führungskräften des Unternehmens verdeutlicht. 

In der Folgezeit spekulierten viele, dass Altman nicht ausreichend auf die Sicherheit der Modelle geachtet hatte, dass er sozusagen von seiner Arbeit "mitgerissen" worden war. Spätere Berichte ließen daran Zweifel aufkommen, darunter auch der Präsident von Microsoft, Brad Smith, der sagte, er halte es für unwahrscheinlich dass die Sicherheit das Hauptmotiv war. 

Hinzu kam, dass OpenAI eine enorme Bewertung erhalten hatte und die Mitarbeiter ihre Aktienoptionen einlösen wollten. 

Business Insider behauptet dass OpenAI-Mitarbeiter ihren offenen Brief, in dem sie erklärten, dass sie das Unternehmen verlassen würden, wenn Altman nicht wieder eingestellt würde, als Druckmittel einsetzten. Ein Mitarbeiter sagte sogar, er sei ein schlechter CEO, obwohl diese Berichte unbestätigt sind. 

OpenAI hat nun gehandelt, um Befürchtungen zu zerstreuen, dass sie KI nicht sicher einsetzen, indem sie zunächst die Ergebnisse ihrer neuen "Experiment "Superalignment und auch durch die Aufstockung der "Befugnisse" ihres "Bereitschaftsteams". 

OpenAIs Bereitschaftsteamunter der Leitung von Aleksander Madry, der derzeit vom MIT beurlaubt ist, bewerten kontinuierlich KI-Systeme in verschiedenen Risikokategorien, darunter Cybersicherheit und Bedrohungen im Zusammenhang mit chemischen, nuklearen und biologischen Stoffen. 

Dieses Team soll alle erheblichen Gefahren, die mit der Technologie verbunden sind, ermitteln und eindämmen. Nach den Leitlinien könnten Risiken, die als "katastrophal" eingestuft werden, zu erheblichen wirtschaftlichen Schäden oder schwerwiegenden Beeinträchtigungen für viele Menschen führen.

Madry erläuterte den Prozess: "KI ist nicht etwas, das uns einfach passiert und das gut oder schlecht sein kann. Es ist etwas, das wir gestalten." Er gab seiner Hoffnung Ausdruck, dass andere Unternehmen die OpenAI-Leitlinien für die Risikobewertung übernehmen würden. 

Sein Team, das im Oktober als Teil von drei separaten Gruppen gebildet wurde, die die KI-Sicherheit bei OpenAI überwachen, wird unveröffentlichte KI-Modelle bewerten und die wahrgenommenen Risiken als "niedrig", "mittel", "hoch" oder "kritisch" einstufen. Nur Modelle, die als "mittel" oder "niedrig" eingestuft werden, kommen für die Veröffentlichung in Frage.

Zu ihren neuen Richtlinien zu X sagte OpenAI: "Wir systematisieren unser Sicherheitsdenken mit unserem Preparedness Framework, einem lebenden Dokument (derzeit in der Beta-Phase), das die technischen und betrieblichen Investitionen detailliert beschreibt, die wir als Leitfaden für die Sicherheit bei der Entwicklung unserer Pioniermodelle einsetzen."

Zusätzlich zu diesen Maßnahmen verfügt OpenAI über eine interne Sicherheitsberatungsgruppe, die die Ergebnisse von Madrys Team überprüft und Empfehlungen an Altman und den Vorstand gibt. 

Join The Future


HEUTE ABONNIEREN

Klar, prägnant, umfassend. Behalten Sie den Überblick über KI-Entwicklungen mit DailyAI

Sam Jeans

Sam ist ein Wissenschafts- und Technologiewissenschaftler, der in verschiedenen KI-Startups gearbeitet hat. Wenn er nicht gerade schreibt, liest er medizinische Fachzeitschriften oder kramt in Kisten mit Schallplatten.

×

KOSTENLOSES PDF EXKLUSIV
Mit DailyAI immer einen Schritt voraus

Melden Sie sich für unseren wöchentlichen Newsletter an und erhalten Sie exklusiven Zugang zum neuesten eBook von DailyAI: 'Mastering AI Tools: Ihr Leitfaden für mehr Produktivität im Jahr 2024".

*Mit der Anmeldung zu unserem Newsletter akzeptieren Sie unsere Datenschutzbestimmungen und unsere Bedingungen und Konditionen