Die britische Regierung möchte einen Blick in die "Black Box" der KI werfen

29. September 2023

AI-Sicherheitsgipfel

Das Vereinigte Königreich verhandelt mit großen Technologieunternehmen, darunter OpenAI und DeepMind, um tiefere Einblicke in die Sicherheit ihrer KI-Technologien zu erhalten. 

Während sich das Vereinigte Königreich auf die globale AI-Sicherheitsgipfelhat die Regierung den Wunsch geäußert, KI-Modelle zu untersuchen und einen Blick in die "Black Box" zu werfen. Aus Quellen, die in die Verhandlungen eingeweiht sind, geht hervor, dass sich die Vertreter aktiv um die Erlaubnis bemühen, das Innenleben fortgeschrittener KI-Modelle zu erforschen.

Große KI-Entwickler sind notorisch zurückhaltend, wenn es um die Weitergabe solcher Informationen geht - könnten sie ungewollt vertrauliche Produktdetails oder Beweise für urheberrechtlich geschützte Trainingsdaten preisgeben?

Die britische Regierung argumentiert, dass das Verständnis der Funktionsweise fortgeschrittener KI-Modelle es den Behörden ermöglichen wird, Gefahren präventiv zu erkennen, aber sie hat nicht genau erklärt, was sie wissen will. Es gibt viele Open-Source-KI-Modelle, die ähnlich funktionieren wie proprietäre KI wie ChatGPT. 

In den USA haben sich mehrere führende KI-Entwickler für eine freiwilliger Rahmen Das würde bedeuten, dass ihre Modelle vor der Markteinführung von unabhängiger Seite getestet werden - etwas, das in China bereits geschieht.

Anfang Juni haben DeepMind, OpenAI und Anthropic in einer vorläufigen Vereinbarung zugestimmt, der britischen Regierung Zugang zu den Modellen für Forschungs- und Sicherheitsbewertungen zu gewähren. Die Einzelheiten dieses Zugangs bleiben jedoch unbestimmt. 

In einer Erklärung erwähnte Anthropic, dass man die Möglichkeit prüfe, das Modell über eine API (Application Programming Interface) bereitzustellen, um die Belange beider Parteien zu berücksichtigen.

Während eine API einen begrenzten Einblick in die Funktionsweise des Modells bietet, setzt sich die britische Regierung für ein "tieferes" Verständnis ein, wie Insider aus dem Financial Times

DeepMind-Insider waren sich einig, dass der Zugang zu Modellen für die Sicherheitsforschung nützlich wäre, aber OpenAI hat sich nicht dazu geäußert.

Eine der Regierung nahestehende Quelle erklärte: "Diese Unternehmen sind nicht obstruktiv, aber es ist generell ein heikles Thema, und sie haben berechtigte Bedenken". Es handelt sich um offene und ungelöste Forschungsfragen." 

Der KI-Sicherheitsgipfel des Vereinigten Königreichs Anfang November ist eine direkte Reaktion auf die Forderungen nach einer strengeren KI-Regulierung. Es wird erwartet, dass eine Vielzahl von Interessenvertretern teilnehmen wird, darunter auch chinesische Beamte. 

Insidern zufolge arbeitet die britische Regierung an der Fertigstellung eines Abkommens, das auf dem Gipfel vorgestellt werden soll.

Join The Future


HEUTE ABONNIEREN

Klar, prägnant, umfassend. Behalten Sie den Überblick über KI-Entwicklungen mit DailyAI

Sam Jeans

Sam ist ein Wissenschafts- und Technologiewissenschaftler, der in verschiedenen KI-Startups gearbeitet hat. Wenn er nicht gerade schreibt, liest er medizinische Fachzeitschriften oder kramt in Kisten mit Schallplatten.

×

KOSTENLOSES PDF EXKLUSIV
Mit DailyAI immer einen Schritt voraus

Melden Sie sich für unseren wöchentlichen Newsletter an und erhalten Sie exklusiven Zugang zum neuesten eBook von DailyAI: 'Mastering AI Tools: Ihr Leitfaden für mehr Produktivität im Jahr 2024".

*Mit der Anmeldung zu unserem Newsletter akzeptieren Sie unsere Datenschutzbestimmungen und unsere Bedingungen und Konditionen