Führende KI-Unternehmen haben sich auf eine Reihe neuer freiwilliger Sicherheitsverpflichtungen geeinigt, die von der britischen und der südkoreanischen Regierung vor einem zweitägigen KI-Gipfel in Seoul angekündigt wurden.
16 Technologieunternehmen haben sich für den Rahmen entschieden, darunter AmazonGoogle, Meta, Microsoft, OpenAI, xAI, und Zhipu AI.
Es ist der erste Rahmen, auf den sich Unternehmen in Nordamerika, Europa, dem Nahen Osten (The Technology Innovation Institute) und Asien, einschließlich China (Zhipu AI), geeinigt haben.
Unter anderem verpflichten sich die Unternehmen, "ein Modell überhaupt nicht zu entwickeln oder einzusetzen", wenn schwerwiegende Risiken nicht beherrscht werden können.
Die Unternehmen erklärten sich außerdem bereit, zu veröffentlichen, wie sie die mit KI-Modellen verbundenen Risiken messen und abmildern werden.
Die neue Verpflichtungen nachdem herausragende KI-Forscher, darunter Yoshua Bengio, Geoffrey Hinton, Andrew Yao und Yuval Noah Harari, eine Papier in Wissenschaft genannt Umgang mit extremen KI-Risiken inmitten des schnellen Fortschritts.
In diesem Papier wurden mehrere Empfehlungen ausgesprochen, die als Grundlage für den neuen Sicherheitsrahmen dienten:
- Aufsicht und Ehrlichkeit: Entwicklung von Methoden, die sicherstellen, dass KI-Systeme transparent sind und zuverlässige Ergebnisse liefern.
- Robustheit: Sicherstellen, dass KI-Systeme sich in neuen Situationen vorhersehbar verhalten.
- Interpretierbarkeit und Transparenz: KI-Entscheidungsprozesse verstehen.
- Inklusive AI-Entwicklung: Vorurteile abbauen und unterschiedliche Werte integrieren.
- Bewertung für gefährliche Handlungen: Entwicklung strenger Methoden zur Bewertung von KI-Fähigkeiten und zur Vorhersage von Risiken vor dem Einsatz.
- Bewertung der AI-Ausrichtung: Sicherstellen, dass KI-Systeme mit den beabsichtigten Zielen übereinstimmen und keine schädlichen Ziele verfolgen.
- Risikobewertungen: Umfassende Bewertung der mit dem Einsatz von KI verbundenen gesellschaftlichen Risiken.
- Widerstandsfähigkeit: Schaffung von Schutzmaßnahmen gegen KI-gestützte Bedrohungen wie Cyberangriffe und soziale Manipulation.
Anna Makanju, Vizepräsidentin für globale Angelegenheiten bei OpenAIerklärte zu den neuen Empfehlungen: "Der Bereich der KI-Sicherheit entwickelt sich schnell weiter, und wir freuen uns besonders, dass die Verpflichtungen den Schwerpunkt auf die Verfeinerung der Ansätze neben der Wissenschaft legen. Wir sind weiterhin entschlossen, mit anderen Forschungslabors, Unternehmen und Regierungen zusammenzuarbeiten, um sicherzustellen, dass KI sicher ist und der gesamten Menschheit nützt.
Michael Sellitto, Leiter für globale Angelegenheiten bei AnthropicDie Sicherheitsverpflichtungen von Frontier AI unterstreichen die Bedeutung einer sicheren und verantwortungsvollen Entwicklung von Frontier-Modellen. Als sicherheitsorientiertes Unternehmen haben wir es uns zur Priorität gemacht, strenge Richtlinien zu implementieren, ein umfassendes Red Teaming durchzuführen und mit externen Experten zusammenzuarbeiten, um sicherzustellen, dass unsere Modelle sicher sind. Diese Verpflichtungen sind ein wichtiger Schritt zur Förderung einer verantwortungsvollen KI-Entwicklung und -Einführung."
Ein weiterer freiwilliger Rahmen
Dies spiegelt die "freiwilligen Verpflichtungen" wider, die auf der Weißes Haus im Juli letzten Jahres von Amazon, AnthropicGoogle, Inflection AI, Meta, Microsoft, und OpenAI die sichere und transparente Entwicklung der KI-Technologie zu fördern.
Diese neuen Vorschriften sehen vor, dass die 16 Unternehmen "öffentliche Transparenz" über ihre Sicherheitsmaßnahmen herstellen, es sei denn, dies könnte die Risiken erhöhen oder sensible Geschäftsinformationen preisgeben, die in keinem Verhältnis zum gesellschaftlichen Nutzen stehen.
Der britische Premierminister Rishi Sunak sagte: "Es ist eine Weltpremiere, dass sich so viele führende KI-Unternehmen aus so vielen verschiedenen Teilen der Welt auf dieselben Verpflichtungen zur KI-Sicherheit verständigt haben."
Es handelt sich um eine Weltpremiere, da Unternehmen außerhalb Europas und Nordamerikas, wie Chinas Zhipu.ai, beigetreten.
Freiwillige Selbstverpflichtungen zur KI-Sicherheit sind jedoch schon seit einiger Zeit in Mode.
Das Risiko für KI-Unternehmen, ihnen zuzustimmen, ist gering, da es keine Mittel gibt, sie durchzusetzen. Das zeigt auch, wie stumpfes Instrument sie sind, wenn es hart auf hart kommt.
Dan Hendrycks, der Sicherheitsberater von Elon Musks Startup xAI, merkte an, dass die freiwilligen Selbstverpflichtungen dazu beitragen würden, "die Grundlage für konkrete nationale Regelungen zu schaffen".
Eine berechtigte Bemerkung, aber nach Aussage einiger führender Forscher müssen wir erst noch "die Grundlagen" schaffen, wenn extreme Risiken an die Tür klopfen.
Nicht alle sind sich einig über wie gefährlich KI wirklich istAber es bleibt dabei, dass die Stimmung, die hinter diesen Rahmenwerken steht, noch nicht mit den Taten übereinstimmt.
Nationen bilden AI-Sicherheitsnetz
Zum Auftakt dieses kleineren KI-Sicherheitsgipfels in Seoul, Südkorea, haben sich zehn Länder und die Europäische Union (EU) darauf geeinigt, ein internationales Netzwerk von öffentlich geförderten "KI-Sicherheitsinstituten" zu gründen.
Die "Absichtserklärung von Seoul zur internationalen Zusammenarbeit im Bereich der KI-Sicherheitswissenschaft"Das Abkommen umfasst Länder wie das Vereinigte Königreich, die Vereinigten Staaten, Australien, Kanada, Frankreich, Deutschland, Italien, Japan, Südkorea, Singapur und die EU.
Bemerkenswert ist, dass China nicht an der Vereinbarung beteiligt war. Die chinesische Regierung hat sich jedoch beteiligt, und das chinesische Unternehmen Zhipu.ai hat sich dem oben beschriebenen Rahmen angeschlossen.
China hat bereits früher seine Bereitschaft zur Zusammenarbeit im Bereich der KI-Sicherheit geäußert und war in Geheimgespräche" mit der US.
Diese kleinerer Zwischengipfel fand im November letzten Jahres im britischen Bletchley Park statt und war weniger spektakulär als die erste.
Dennoch schlossen sich einige bekannte Persönlichkeiten aus der Technologiebranche an, darunter Elon Musk, der ehemalige Google-CEO Eric Schmidt und DeepMind Gründer Sir Demis Hassabis.
Weitere Zusagen und Gespräche werden in den nächsten Tagen bekannt gegeben.