Ehemalige OpenAI-Mitarbeiter veröffentlichen offenen Brief "Recht auf Warnung

Juni 5, 2024

  • In einem offenen Brief fordern aktuelle und ehemalige Mitarbeiter von OpenAI und Google die Freiheit, KI-Risiken zu melden
  • Das Schreiben trägt den Titel "Ein Recht auf Warnung vor fortgeschrittener künstlicher Intelligenz".
  • In dem Schreiben heißt es, dass AI-Unternehmen davon abgehalten werden, Risiken zu melden, und dass Mitarbeiter bestraft werden, wenn sie dies tun.

Eine Gruppe ehemaliger und aktueller Mitarbeiter von OpenAI und Google rügt die KI-Unternehmen wegen der ihrer Meinung nach gefährlichen Geheimhaltungskultur in Bezug auf KI-Risiken.

In dem Schreiben mit dem Titel "Ein Recht auf Warnung vor fortgeschrittener künstlicher Intelligenz" heißt es, dass KI-Unternehmen starke finanzielle Anreize haben, eine wirksame Aufsicht über potenzielle KI-Risiken zu vermeiden.

Abgesehen davon, dass es rücksichtslos ist, sich auf finanzielle Ziele statt auf die Sicherheit zu konzentrieren, heißt es in dem Schreiben, dass Unternehmen strafbewehrte Vertraulichkeitsvereinbarungen verwenden, um Mitarbeiter aktiv davon abzuhalten, Bedenken zu äußern.

Die Unterzeichner sind alle ehemalige OpenAI- und Google-Mitarbeiter, wobei Neel Nanda der einzige ist, der noch bei Google arbeitet. Der Brief wurde auch von den führenden KI-Experten Yoshua Bengio, Geoffrey Hinton und Stuart Russell unterstützt.

6 der Unterzeichner waren nicht bereit, ihre Namen in dem Schreiben preiszugeben, was die Bedenken gegen die Nennung ihrer ehemaligen Arbeitgeber belegt.

Die ehemaligen OpenAI-Forscher Daniel Kokotajlo und William Saunders, die den Brief ebenfalls unterzeichnet haben, verließen das Unternehmen Anfang dieses Jahres.

Kokotajlo gehörte dem Governance-Team an, und Saunders arbeitete im Superalignment-Team von OpenAI, das letzten Monat aufgelöst wurde, als Ilya Sutskever und Jan Leikealso verließen ebenfalls wegen Sicherheitsbedenken.

Kokotajlo erklärte seinen Austritt in einem Forum und sagte, er glaube nicht, dass sich OpenAI "in der Zeit von AGI verantwortungsvoll verhalten wird".

Ein Aufruf zum Handeln

In dem Schreiben wird ein stärkeres Engagement der KI-Unternehmen gefordert, da es keine Vorschriften für KI-Risiken gibt, die der Öffentlichkeit nicht bekannt sind.

In dem Schreiben heißt es: "Der übliche Schutz von Hinweisgebern ist unzureichend, da er sich auf illegale Aktivitäten konzentriert, während viele der Risiken, über die wir besorgt sind, noch nicht geregelt sind.

In dem Schreiben werden die KI-Unternehmen aufgefordert, sich zu vier Grundsätzen zu verpflichten. Kurz gesagt, sie wollen, dass die Unternehmen:

  • keine Vereinbarungen abschließen oder durchsetzen, die Kritik am Unternehmen wegen Sicherheitsbedenken verbieten oder dem Arbeitnehmer zustehende finanzielle Leistungen zurückhalten. (ahem, OpenAI)
  • Erleichterung eines anonymen Verfahrens für Mitarbeiter, um risikobezogene Bedenken gegenüber dem Vorstand des Unternehmens oder anderen Aufsichtsbehörden zu äußern.
  • Förderung einer Kultur der offenen Kritik, die es den Mitarbeitern ermöglicht, risikobezogene Bedenken öffentlich zu machen, ohne dass geistiges Eigentum preisgegeben wird.
  • keine Vergeltungsmaßnahmen gegen derzeitige und ehemalige Mitarbeiter zu ergreifen, die risikobezogene vertrauliche Informationen öffentlich mitteilen, nachdem andere Verfahren fehlgeschlagen sind.

Mehrere der Namen auf der Liste der Unterzeichner betrachten sich selbst als effektive Altruisten. Aus ihren Beiträgen und Kommentaren geht klar hervor, dass Leute wie Daniel Kokotajlo (Less Wrong) und William Saunders (AI Alignment Forum) glauben, dass die Dinge sehr schlimm enden könnten, wenn die KI-Risiken nicht beherrscht werden.

Aber das sind keine Schwarzmaler in einem Forum, die von der Seitenlinie aus schimpfen. Es sind führende Köpfe, die von Unternehmen wie OpenAI und Google eingestellt wurden, um die Technologie zu entwickeln, die sie jetzt fürchten.

Und jetzt sagen sie: "Wir haben Dinge gesehen, die uns Angst machen. Wir wollen die Leute warnen, aber das dürfen wir nicht.

Sie können die Brief hier.

Join The Future


HEUTE ABONNIEREN

Klar, prägnant, umfassend. Behalten Sie den Überblick über KI-Entwicklungen mit DailyAI

Eugene van der Watt

Eugene kommt aus der Elektronikbranche und liebt alles, was mit Technik zu tun hat. Wenn er eine Pause vom Konsum von KI-Nachrichten einlegt, findet man ihn am Snookertisch.

×

KOSTENLOSES PDF EXKLUSIV
Mit DailyAI immer einen Schritt voraus

Melden Sie sich für unseren wöchentlichen Newsletter an und erhalten Sie exklusiven Zugang zum neuesten eBook von DailyAI: 'Mastering AI Tools: Ihr Leitfaden für mehr Produktivität im Jahr 2024".

*Mit der Anmeldung zu unserem Newsletter akzeptieren Sie unsere Datenschutzbestimmungen und unsere Bedingungen und Konditionen