Senat prüft Sicherheit und Führung von OpenAI nach Vorwürfen von Whistleblowern

Juli 23, 2024

  • US-Senatoren befragten OpenAI nach Vorwürfen von Whistleblowing-Beschränkungen
  • Sie stellten auch die "Integrität der Führungsstruktur des Unternehmens" in Frage.
  • OpenAI muss bis zum 13. August formell auf eine Liste von Fragen antworten
OpenAI-Senatoren

OpenAI steht im Mittelpunkt einer Untersuchung des Senats, nachdem Vorwürfe übereilter Sicherheitstests laut geworden sind.

Fünf Senatoren, angeführt von Brian Schatz (D-Hawaii), forderten das Unternehmen auf, detaillierte Informationen über seine Sicherheitspraktiken und Mitarbeitervereinbarungen vorzulegen.

Die Untersuchung erfolgt im Anschluss an eine Bericht der Washington Post was darauf hindeutet, dass OpenAI bei der überstürzten Veröffentlichung von GPT-4 Omni, seinem neuesten KI-Modell, möglicherweise Kompromisse bei den Sicherheitsprotokollen eingegangen ist.

In der Zwischenzeit haben Whistleblower, darunter hochrangige Forscher von OpenAIs aufgelöstes "Superalignment Team"," haben Bedenken hinsichtlich restriktiver Vertraulichkeitsvereinbarungen (NDAs) geäußert.

Brief der Senatoren an OpenAI

In einem eindringlichen Brief an den CEO von OpenAI, Sam Altman, forderten fünf Senatoren detaillierte Informationen über die Sicherheitspraktiken des Unternehmens und die Behandlung der Mitarbeiter.

Die Schreiben gibt Anlass zu Bedenken hinsichtlich des Engagements von OpenAI für eine verantwortungsvolle KI-Entwicklung und seiner internen Richtlinien.

"Angesichts der Position von OpenAI als führendes KI-Unternehmen ist es wichtig, dass die Öffentlichkeit auf die Sicherheit seiner Systeme vertrauen kann", schreiben die Senatoren.

Sie stellen die "Integrität der Führungsstruktur und der Sicherheitstests des Unternehmens, seine Beschäftigungspraktiken, seine Treue zu seinen öffentlichen Versprechen und seiner Mission sowie seine Cybersicherheitsrichtlinien" in Frage.

Die Senatoren, angeführt von Brian Schatz (D-Hawaii), haben OpenAI eine Frist bis zum 13. August gesetzt, um auf eine Reihe von Fragen zu antworten. Dazu gehört die Frage, ob das Unternehmen seine Zusage einhalten wird, 20% an Rechenressourcen für die KI-Sicherheitsforschung bereitzustellen, und ob es unabhängigen Experten erlauben wird, seine Systeme vor der Veröffentlichung zu testen.

Zum Thema restriktive Mitarbeitervereinbarungen fordert der Brief OpenAI auf, zu bestätigen, dass es "keine dauerhaften Nichtverleumdungsvereinbarungen für derzeitige und ehemalige Mitarbeiter durchsetzen wird" und sich zu verpflichten, "alle anderen Bestimmungen aus Arbeitsverträgen zu entfernen, die dazu verwendet werden könnten, Mitarbeiter zu bestrafen, die öffentlich Bedenken über die Praktiken des Unternehmens äußern".

OpenAI hat sich später an X gewandt, um die Öffentlichkeit über sein Engagement für die Sicherheit zu beruhigen.

"Um sicherzustellen, dass KI allen zugutekommt, müssen wir KI entwickeln, die hilfreich und sicher ist. Wir möchten einige Neuigkeiten darüber mitteilen, wie wir die Sicherheit in unserer Arbeit priorisieren", erklärte das Unternehmen in einem kürzlich veröffentlichten Beitrag.

OpenAI hob sein Preparedness Framework hervor, mit dem Risiken, die von immer leistungsfähigeren KI-Modellen ausgehen, bewertet und abgewehrt werden sollen.

"Wir werden kein neues Modell auf den Markt bringen, wenn es die Schwelle des mittleren Risikos überschreitet, bis wir sicher sind, dass wir es sicher machen können", versicherte das Unternehmen.

Zu den Vorwürfen restriktiver Mitarbeitervereinbarungen erklärte OpenAI: "Unsere Whistleblower-Richtlinie schützt das Recht der Mitarbeiter, geschützte Informationen preiszugeben. Wir glauben auch, dass eine rigorose Debatte über diese Technologie wichtig ist und haben Änderungen an unserem Austrittsverfahren vorgenommen, um Nicht-Verleumdungsklauseln zu entfernen.

Das Unternehmen erwähnte auch die jüngsten Maßnahmen zur Verstärkung seiner Sicherheitsmaßnahmen.

Im Mai rief der Vorstand von OpenAI einen neuen Ausschuss für Sicherheit ins Leben, dem folgende Personen angehören im Ruhestand US Armeegeneral Paul Nakasoneeinem führenden Experten für Cybersicherheit.

OpenAI bleibt bei seiner Haltung zu den Vorteilen der KI. "Wir glauben, dass KI-Modelle einen großen Nutzen für die Gesellschaft haben können", erklärte das Unternehmen und räumte gleichzeitig ein, dass weiterhin Wachsamkeit und Sicherheitsmaßnahmen erforderlich sind.

Trotz einiger Fortschritte sind die Chancen auf die Verabschiedung eines umfassenden AI-Gesetzes in diesem Jahr gering, da sich die Aufmerksamkeit auf die Wahlen im Jahr 2024 verlagert.

Da der Kongress keine neuen Gesetze erlassen hat, hat sich das Weiße Haus weitgehend auf die freiwillige Verpflichtungen von KI-Unternehmen, um sicherzustellen, dass sie sichere und vertrauenswürdige KI-Systeme entwickeln.

Join The Future


HEUTE ABONNIEREN

Klar, prägnant, umfassend. Behalten Sie den Überblick über KI-Entwicklungen mit DailyAI

Sam Jeans

Sam ist ein Wissenschafts- und Technologiewissenschaftler, der in verschiedenen KI-Startups gearbeitet hat. Wenn er nicht gerade schreibt, liest er medizinische Fachzeitschriften oder kramt in Kisten mit Schallplatten.

×

KOSTENLOSES PDF EXKLUSIV
Mit DailyAI immer einen Schritt voraus

Melden Sie sich für unseren wöchentlichen Newsletter an und erhalten Sie exklusiven Zugang zum neuesten eBook von DailyAI: 'Mastering AI Tools: Ihr Leitfaden für mehr Produktivität im Jahr 2024".

*Mit der Anmeldung zu unserem Newsletter akzeptieren Sie unsere Datenschutzbestimmungen und unsere Bedingungen und Konditionen