Whistleblower kritisieren OpenAIs Widerstand gegen KI-Sicherheitsgesetz

26. August 2024

  • Das umstrittene kalifornische Gesetz SB 1047 über die Sicherheit von künstlicher Intelligenz rückt näher an seine Unterzeichnung
  • OpenAI schrieb einen Brief an den Autor des Gesetzentwurfs, Senator Scott Wiener, um sich gegen den Gesetzentwurf auszusprechen
  • Zwei ehemalige OpenAI-Forscher haben einen Brief geschrieben, in dem sie OpenAIs Opposition und KI-Sicherheitsansatz kritisieren

Zwei ehemalige OpenAI-Forscher schrieben einen Brief als Antwort auf OpenAIs Widerstand gegen das umstrittene kalifornische KI-Sicherheitsgesetz SB 1047.

Die Gesetzesvorschlag Wenn es bis Ende des Monats den gesamten Senat passiert, wird es Gouverneur Gavin Newsom zur Unterschrift vorgelegt.

Der Gesetzentwurf fordert zusätzliche Sicherheitsprüfungen für KI-Modelle, deren Ausbildung mehr als $100 Mio. kostet, sowie einen "Kill Switch" für den Fall, dass sich das Modell falsch verhält. Die ehemaligen OpenAI-Mitarbeiter und Whistleblower William Saunders und Daniel Kokotajlo sagen, sie seien "enttäuscht, aber nicht überrascht" von OpenAIs Widerstand gegen den Gesetzentwurf.

OpenAIDer Brief an den Verfasser des Gesetzentwurfs, Senator Scott Wiener, erklärte, dass sie zwar die Absicht hinter dem Gesetzentwurf unterstütze, aber Bundesgesetze zur Regulierung der KI-Entwicklung eine bessere Option seien.

OpenAI sagt, dass die Auswirkungen auf die nationale Sicherheit, wie z.B. mögliche chemische, biologische, radiologische und nukleare Schäden, am besten von der Bundesregierung und den Behörden gehandhabt werden".

In dem Schreiben heißt es: "Wenn die Staaten versuchen, mit der Bundesregierung um die knappen Talente und Ressourcen zu konkurrieren, wird dies die ohnehin schon begrenzten Fachkenntnisse in den verschiedenen Behörden verwässern und zu einer weniger effektiven und stärker fragmentierten Politik zum Schutz vor nationalen Sicherheitsrisiken und kritischen Schäden führen".

Der Brief zitierte auch die Bedenken der Abgeordneten Zoe Lofgren, dass im Falle der Unterzeichnung des Gesetzentwurfs "ein echtes Risiko besteht, dass Unternehmen sich entscheiden, in anderen Ländern zu gründen oder einfach keine Modelle in Kalifornien zu veröffentlichen".

Antwort von OpenAI an Whistleblower

Die ehemaligen OpenAI-Mitarbeiter glauben nicht an die Argumentation von OpenAI. Sie erklärten: "Wir traten OpenAI bei, weil wir die Sicherheit der unglaublich leistungsfähigen KI-Systeme, die das Unternehmen entwickelt, gewährleisten wollten. Aber wir sind bei OpenAI ausgetreten, weil wir das Vertrauen verloren haben, dass das Unternehmen seine KI-Systeme sicher, ehrlich und verantwortungsvoll entwickelt."

Die Autoren von der Brief waren auch hinter den "Recht auf Warnung" Briefdie Anfang dieses Jahres veröffentlicht wurde.

In dem Schreiben, in dem sie ihre Unterstützung für SB 1047 erklären, heißt es: "Die Entwicklung neuartiger KI-Modelle ohne angemessene Sicherheitsvorkehrungen birgt das vorhersehbare Risiko katastrophaler Schäden für die Öffentlichkeit."

OpenAI hat einen Exodus von KI-Sicherheitsforschern erlebt, aber die Modelle des Unternehmens haben keines der von vielen befürchteten Weltuntergangsszenarien geliefert. Die Whistleblower sagen: "Das liegt nur daran, dass wirklich gefährliche Systeme noch nicht gebaut wurden, nicht daran, dass Unternehmen Sicherheitsprozesse haben, die wirklich gefährliche Systeme handhaben könnten.

Sie glauben auch nicht, dass der CEO von OpenAI, Sam Altman, sich für die Sicherheit von KI einsetzt. "Sam Altman, unser ehemaliger Chef, hat wiederholt eine Regulierung der KI gefordert. Jetzt, wo eine tatsächliche Regulierung auf dem Tisch liegt, lehnt er sie ab", erklären sie.

OpenAI ist nicht das einzige Unternehmen, das gegen den Gesetzentwurf ist. Anthropic hatte ebenfalls Bedenken, scheint den Entwurf aber nach Änderungen nun zu unterstützen.

Dario Amodei, CEO von Anthropic, sagte in seinem Brief an den kalifornischen Gouverneur Gavin Newsom am 21. August: "Unserer Einschätzung nach ist das neue SB 1047 wesentlich besser, so dass wir glauben, dass seine Vorteile die Kosten überwiegen.

"Wir sind uns dessen jedoch nicht sicher, und es gibt immer noch einige Aspekte des Gesetzentwurfs, die uns bedenklich oder zweideutig erscheinen... Unsere anfänglichen Bedenken, dass der Gesetzentwurf aufgrund der raschen Entwicklung in diesem Bereich Innovationen behindern könnte, haben sich in der geänderten Fassung stark verringert."

Sollte SB 1047 in Kraft treten, könnte dies Unternehmen wie OpenAI dazu zwingen, viel mehr Ressourcen auf die KI-Sicherheit zu konzentrieren, aber es könnte auch zu einer Abwanderung von Technologieunternehmen aus dem Silicon Valley führen.

Join The Future


HEUTE ABONNIEREN

Klar, prägnant, umfassend. Behalten Sie den Überblick über KI-Entwicklungen mit DailyAI

Eugene van der Watt

Eugene kommt aus der Elektronikbranche und liebt alles, was mit Technik zu tun hat. Wenn er eine Pause vom Konsum von KI-Nachrichten einlegt, findet man ihn am Snookertisch.

×

KOSTENLOSES PDF EXKLUSIV
Mit DailyAI immer einen Schritt voraus

Melden Sie sich für unseren wöchentlichen Newsletter an und erhalten Sie exklusiven Zugang zum neuesten eBook von DailyAI: 'Mastering AI Tools: Ihr Leitfaden für mehr Produktivität im Jahr 2024".

*Mit der Anmeldung zu unserem Newsletter akzeptieren Sie unsere Datenschutzbestimmungen und unsere Bedingungen und Konditionen