Der Vorstand von OpenAI kündigte die Bildung eines Sicherheitsausschusses an, der die Aufgabe hat, Empfehlungen zu kritischen Sicherheitsentscheidungen für alle OpenAI-Projekte abzugeben.
Der Ausschuss wird von den Direktoren Bret Taylor (Vorsitz), Adam D'Angelo, Nicole Seligman und dem CEO von OpenAI, Sam Altman, geleitet.
Aleksander Madry (Leiter der Abteilung Bereitschaft), Lilian Weng (Leiterin der Abteilung Sicherheitssysteme), John Schulman (Leiter der Abteilung Wissenschaftliche Ausrichtung), Matt Knight (Leiter der Abteilung Sicherheit) und Jakub Pachocki (leitender Wissenschaftler) werden ebenfalls dem Ausschuss angehören.
Der Ansatz von OpenAI in Bezug auf die KI-Sicherheit ist sowohl extern als auch intern kritisiert worden. Die Entlassung von Altman im vergangenen Jahr wurde von dem damaligen Vorstandsmitglied Ilya Sutskever und anderen unterstützt, angeblich wegen Sicherheitsbedenken.
Letzte Woche haben Sutskever und Jan Leike aus dem "Superalignment"-Team von OpenAI verließ das Unternehmen. Leike nannte ausdrücklich Sicherheitsfragen als Grund für seinen Weggang und sagte, das Unternehmen lasse die Sicherheit "hinter glänzenden Produkten zurücktreten".
Gestern gab Leike bekannt, dass er zu Anthropic wechselt, um an der Aufsicht und der Ausrichtungsforschung zu arbeiten.
Ich freue mich auf den Beitritt AnthropicAI?ref_src=twsrc%5Etfw”>@AnthropicAI um die Mission der Superalignation fortzusetzen!
Mein neues Team wird sich mit skalierbarer Übersicht, schwacher bis starker Generalisierung und automatisierter Alignment-Forschung befassen.
Wenn du Interesse hast, mitzumachen, meine dms sind offen.
- Jan Leike (@janleike) 28. Mai 2024
Jetzt ist Altman nicht nur als CEO zurück, sondern sitzt auch in dem Ausschuss, der für die Aufdeckung von Sicherheitsproblemen zuständig ist. Die Einblicke des ehemaligen Vorstandsmitglieds Helen Toner in die Gründe für Altmans Entlassung lassen die Frage aufkommen, wie transparent er in Bezug auf Sicherheitsprobleme sein wird, die der Ausschuss aufdeckt.
Offenbar hat der OpenAI-Vorstand von der Veröffentlichung von ChatGPT über Twitter erfahren.
❗EXCLUSIVE: "Wir lernten über ChatGPT auf Twitter".
Was WIRKLICH geschah bei OpenAI? Das ehemalige Vorstandsmitglied Helen Toner bricht ihr Schweigen mit schockierenden neuen Details über Sam Altmandie Entlassung. Hören Sie die exklusive, unerzählte Geschichte in der TED AI Show.
Hier ein kleiner Vorgeschmack: pic.twitter.com/7hXHcZTP9e
- Bilawal Sidhu (@bilawalsidhu) 28. Mai 2024
Der Sicherheitsausschuss wird die nächsten 90 Tage nutzen, um die Prozesse und Sicherheitsvorkehrungen von OpenAI zu bewerten und weiterzuentwickeln.
Die Empfehlungen werden dem Vorstand von OpenAI zur Genehmigung vorgelegt, und das Unternehmen hat sich verpflichtet, die angenommenen Sicherheitsempfehlungen zu veröffentlichen.
Dieser Vorstoß für zusätzliche Leitplanken kommt zu einem Zeitpunkt, an dem OpenAI mit der Ausbildung seines nächsten Grenzmodells begonnen hat, das nach eigenen Angaben "uns auf die nächste Stufe der Fähigkeiten auf unserem Weg zur AGI bringen wird".
Es wurde kein voraussichtlicher Termin für die Veröffentlichung des neuen Modells genannt, aber allein die Ausbildung wird wahrscheinlich Wochen, wenn nicht Monate dauern.
In einem nach dem KI-Gipfel in Seoul veröffentlichten Update zu seinem Sicherheitskonzept erklärte OpenAI: "Wir werden ein neues Modell nicht freigeben, wenn es die Risikogrenze "Mittel" unseres Preparedness Frameworks überschreitet, bis wir ausreichende Sicherheitsmaßnahmen ergriffen haben, um den Wert nach der Abhilfemaßnahme wieder auf "Mittel" zu bringen."
Nach eigenen Angaben waren mehr als 70 externe Experten am Red Teaming beteiligt. GPT-4o vor seiner Veröffentlichung.
Da es noch 90 Tage dauert, bis der Ausschuss dem Verwaltungsrat seine Ergebnisse vorlegt, die Ausbildung erst vor kurzem begonnen hat und die Verpflichtung zu einem umfassenden Red-Teaming besteht, sieht es so aus, als ob wir noch lange warten müssen, bis wir endlich GPT-5 bekommen.
Oder meinen sie, dass sie gerade mit der GPT-6-Ausbildung begonnen haben?