Gespräche zwischen den USA und der EU drängen auf befristete KI-"Zwischenlösung", bevor Vorschriften verbindlich werden

1. Juni 2023

EU-US-KI

Das exponentielle Wachstum von KI-Systemen überholt Forschung und Regulierung und bringt die Regierungen in die schwierige Lage, Vorteile und Risiken abzuwägen. 

Es dauert Jahre, bis Gesetze entwickelt und rechtsverbindlich werden. KI entwickelt sich wöchentlich weiter. 

Das ist der Zwiespalt, mit dem sich KI-Führungskräfte und Politiker konfrontiert sehen, denn die erste sinnvolle KI-Regulierung im Westen, das EU-KI-Gesetz, steht 2026 an. Noch vor einem Jahr war ChatGPT nur ein Geflüster.

Spitzenbeamte der USA und der EU trafen sich am 31. Mai im schwedischen Luleå zum US-EU Trade and Tech Council (TTC). Margrethe Vestager, EU-Kommissarin für Digitales, die sich in der Vorwoche mit Google-CEO Sundar Pichai getroffen hatte, um einen möglichen "KI-Pakt" zu erörtern, sagte: "Die Demokratie muss zeigen, dass wir genauso schnell sind wie die Technologie."

Offizielle Stellen räumen ein, dass zwischen dem Tempo der Technologie und dem Tempo der Gesetzgebung eine große Lücke klafft. Gina Raimondo, die US-Handelsministerin, sagte mit Blick auf generative KI wie ChatGPT: "Sie entwickelt sich so schnell wie keine andere Technologie". 

Was hat das TTC-Treffen also gebracht?

Die Teilnehmer diskutierten in erster Linie über nicht verbindliche oder freiwillige Rahmenregelungen zu Risiko und Transparenz, die der G7 im Herbst vorgelegt werden sollen. 

Die EU, die bei der Gesetzgebung im Bereich der digitalen Technologien einen direkten Ansatz verfolgt, hat sich bei der Regulierung von KI für einen mehrstufigen Ansatz entschieden, bei dem KI je nach Risiko in Kategorien eingeteilt wird. 

Dazu gehören eine verbotene "inakzeptable Risikostufe" und eine "hohe Risikostufe", von der Tech-Bosse wie OpenAI-CEO Sam Altman befürchten, dass sie die Funktionalität ihrer Produkte beeinträchtigt. 

AI-Risiko
Risikostufen des EU AI Act: Quelle: EU.

Die USA schlagen keine derartigen endgültigen Regelungen vor, Bevorzugung freiwilliger Regelungen.

Es werden noch viele weitere Treffen zwischen der EU, den USA und den großen Technologieunternehmen erforderlich sein, um die Ansichten mit sinnvollen praktischen Maßnahmen in Einklang zu bringen. 

Werden freiwillige KI-Regeln funktionieren?

Es gibt viele Beispiele für freiwillige Regeln in anderen Sektoren und Branchen, wie z. B. freiwillige Datensicherheitsrahmen und ESG-Offenlegungen, aber keiner ist so nah an der Spitze wie ein freiwilliger KI-Governance-Rahmen. 

Schließlich haben wir es hier mit einer Bedrohung auf dem Niveau des Aussterbens zu tun, so führende Techniker und Akademiker, die den Bericht Erklärung des Center for AI Safety zum KI-Risiko in dieser Woche.

Große Unternehmen wie OpenAI und Google verfügen bereits über zentrale Abteilungen, die sich mit Governance und Fragen der internen Compliance befassen, so dass die Anpassung ihrer Produkte und Dienstleistungen an freiwillige Rahmenwerke eine Frage des Umschreibens interner Grundsatzdokumente sein könnte. 

Freiwillige Regeln sind besser als gar nichts, aber angesichts der zahlreichen Vorschläge, die auf dem Tisch liegen, werden sich Politiker und KI-Verantwortliche früher oder später für etwas entscheiden müssen.

Join The Future


HEUTE ABONNIEREN

Klar, prägnant, umfassend. Behalten Sie den Überblick über KI-Entwicklungen mit DailyAI

Sam Jeans

Sam ist ein Wissenschafts- und Technologiewissenschaftler, der in verschiedenen KI-Startups gearbeitet hat. Wenn er nicht gerade schreibt, liest er medizinische Fachzeitschriften oder kramt in Kisten mit Schallplatten.

×

KOSTENLOSES PDF EXKLUSIV
Mit DailyAI immer einen Schritt voraus

Melden Sie sich für unseren wöchentlichen Newsletter an und erhalten Sie exklusiven Zugang zum neuesten eBook von DailyAI: 'Mastering AI Tools: Ihr Leitfaden für mehr Produktivität im Jahr 2024".

*Mit der Anmeldung zu unserem Newsletter akzeptieren Sie unsere Datenschutzbestimmungen und unsere Bedingungen und Konditionen