Am zweiten Tag des KI-Sicherheitsgipfels versuchte der britische Premierminister Rishi Sunak deutlich zu machen, dass die KI-Entwickler vor ihrer Markteinführung eine staatliche Bewertung der Tools zulassen werden.
Sunak sagte, die Ergebnisse des Gipfels "werden das Gleichgewicht zugunsten der Menschheit verschieben" und enthüllte, dass führende Unternehmen der Branche, darunter Meta, Google Deep Mind und OpenAI, in Vorabtests ihrer KI-Innovationen eingewilligt haben - etwas, das sie bereits in einem kürzlich von den USA entwickelten freiwilligen Rahmenwerk zugesagt hatten.
Zu den am zweiten Tag des Gipfels eingegangenen Verpflichtungen gehörte die Einrichtung eines Expertengremiums mit der Bezeichnung AI-Sicherheitsinstitut.
LIVE: Erklärung von Premierminister Rishi Sunak auf dem KI-Sicherheitsgipfel in Bletchley Park https://t.co/YLn6O8FO7f
- Britischer Premierminister (@10DowningStreet) 2. November 2023
Eine weitere Schlagzeile des zweiten Tages ist die Vorstellung eines neuen Berichts zum Stand der KI-Wissenschaft unter der Leitung des "KI-Paten" Yoshio Bengio.
"Diese Idee ist inspiriert von der Art und Weise, wie der Zwischenstaatliche Ausschuss für Klimaänderungen eingerichtet wurde, um einen internationalen wissenschaftlichen Konsens zu erreichen", sagte Sunak.
Die vereinbarter Rahmen setzt sich für umfassende Sicherheitsbewertungen von KI-Modellen vor und nach ihrer Inbetriebnahme ein und betont dabei die Zusammenarbeit bei Tests mit Regierungen, insbesondere in Bereichen, die die nationale Sicherheit und das gesellschaftliche Wohlergehen betreffen.
Das Engagement der Branche für diese Sache wurde durch die Äußerungen von Demis Hassabis, CEO von Google DeepMind, unterstrichen, der erklärte: "KI kann helfen, einige der wichtigsten Herausforderungen unserer Zeit zu lösen, von der Heilung von Krankheiten bis zur Bewältigung der Klimakrise. Aber sie wird auch neue Herausforderungen für die Welt mit sich bringen, und wir müssen sicherstellen, dass die Technologie sicher entwickelt und eingesetzt wird. Um dies zu erreichen, bedarf es gemeinsamer Anstrengungen von Regierungen, Industrie und Zivilgesellschaft, um solide Sicherheitstests und -bewertungen zu entwickeln und durchzuführen. Ich freue mich, dass das Vereinigte Königreich das Institut für KI-Sicherheit ins Leben gerufen hat, um diese wichtige Arbeit voranzutreiben.
China beteiligt sich nicht an diesen multilateralen Initiativen. Dieser Pakt wird jedoch von der EU und führenden Ländern wie den USA, dem Vereinigten Königreich, Japan, Frankreich und Deutschland unterstützt und von Technologiekonzernen wie Google, Amazon, Microsoft und Meta mitgetragen.
Der Premierminister sah sich zwar mit Fragen zum freiwilligen Charakter der Vereinbarungen und dem Fehlen verbindlicher Rechtsvorschriften konfrontiert, behauptete jedoch, dass KI rasches Handeln erfordere, und deutete an, dass "verbindliche Auflagen" für KI-Unternehmen unvermeidlich sein könnten.
Zusammen mit dem gestrigen Erklärung zu Bletchley ParkDer Gipfel versuchte, Maßnahmen im Bereich der künstlichen Intelligenz in Gang zu bringen, obwohl Kritiker ihn weitgehend als symbolisch und nicht umsetzbar abgetan haben.
Bevor er mit Sunak auf Sendung ging, postete Musk auf X eine spöttische Karikatur von Figuren, die die Weltmächte repräsentieren und über die Risiken der KI diskutieren, während sie sich gleichzeitig die Hände reiben, weil sie das Potenzial der Dominanz sehen.
Er ist nicht unumstritten, aber man muss sagen, dass es ein witziger Spruch für einen Gipfel ist, der von Natur aus auf Versprechen beruht. Es wäre allerdings reduktionistisch zu behaupten, dass dies bedeutet, dass nichts erreicht wird, aber die tatsächliche Substanz der Gespräche bleibt hypothetisch.
Seufzer pic.twitter.com/jDDTkewbDL
- Elon Musk (@elonmusk) 2. November 2023
Zum Abschluss des Gipfels gab die britische Regierung stolz die Bletchley-Erklärung heraus, die von 28 Regierungen, darunter die des Vereinigten Königreichs, der USA und der EU, unterzeichnet wurde und ein gemeinsames Vorgehen bei den Sicherheitsstandards für künstliche Intelligenz verspricht, das an die Vereinbarungen zur Klimakrise erinnert.
Insgesamt wurden die diplomatischen Bemühungen von Rishi Sunak auf dem KI-Gipfel als Erfolg gewertet, der das Vereinigte Königreich als Vorreiter bei der Verfolgung globaler KI-Sicherheit und -Regulierung etabliert und die Voraussetzungen für die Ausrichtung des nächsten Gipfels durch Frankreich im Jahr 2024 geschaffen hat.
Nachdem ich mich 9 Jahre lang für einen internationalen KI-Sicherheitsgipfel eingesetzt hatte, war ich sehr gerührt, dass ich nun endlich dabei sein konnte! @RishiSunak hatte mehr Erfolg als ich erwartet hatte, mit einer bemerkenswerten Einigkeit zwischen 1) den USA und China, 2) denjenigen, die sich auf aktuelle Schäden gegenüber existenziellen Risiken konzentrieren & 3)... https://t.co/KAQ4HCIPQo
- Max Tegmark (@tegmark) 2. November 2023
Zweiter Tag des Gipfels
Der zweite Tag des Gipfels wurde von einer Debatte zwischen Sunak und Musk gekrönt. Hier sind einige der wichtigsten Ereignisse vom letzten Tag (erster Tag) bis zum letzten Tag (letzter Tag).
Sehen Sie sich den 50-minütigen Stream hier an.
AI-Diskussion mit @RishiSunak
pic.twitter.com/f5FHGQzE4r- Elon Musk (@elonmusk) 2. November 2023
- Musk argumentierte, dass ein physischer "Aus-Schalter" die KI im Falle von katastrophalen Problemen abschalten könnte. "Was ist, wenn sie eines Tages ein Software-Update bekommen und plötzlich doch nicht mehr so freundlich sind?" sagte Musk zu Sunak.
- Auf die Frage von Sunak, warum Musk kürzlich das System zur Moderation von Twitter-Inhalten geändert hat, antwortet Musk, dass alle Moderatoren von Inhalten voreingenommen sind. Er fragt: "Wie können wir einen konsensgesteuerten Ansatz für die Wahrheit haben?" und sagt, sein Ziel sei es, zu einer "reineren Wahrheit" zu gelangen. Musk behauptet, sein neues Moderationssystem biete einfach mehr Kontext und Transparenz: "Alles ist Open Source. Man kann alle Daten sehen und erkennen, ob das System manipuliert wurde, und Verbesserungen vorschlagen... Wahrheit zahlt sich aus."
- Musk sagt voraus, dass KI-Roboter in der Zukunft zu echten Freunden des Menschen werden könnten. Er argumentiert, dass sie über ein detailliertes Gedächtnis und ein umfangreiches Wissen verfügen werden: "Man könnte sich jeden Tag mit ihnen unterhalten und hätte tatsächlich einen tollen Freund. Das wird tatsächlich eine reale Sache sein.
- Musk macht die kühne Vorhersage, dass die KI so weit fortschreiten wird, dass der Mensch "keinen Job mehr braucht". Er sagt: "Man kann einen Job haben, wenn man das zur persönlichen Befriedigung will, aber die KI kann alles machen". Musk sagt, dass dies sowohl positiv als auch negativ sein könnte und eine Herausforderung für die Suche nach Sinn und Zweck darstellt. Aber er argumentiert auch, dass es ein "universelles hohes Einkommen" und die besten Tutoren geben könnte. Insgesamt sieht er viele Vorteile für Bildung, Produktivität und die Automatisierung gefährlicher Jobs.
- Als Sunak anmerkt, dass er für die Einladung Chinas kritisiert wurde, lobt Musk die Entscheidung als "mutig". Musk argumentiert, dass die Zusammenarbeit mit China im Bereich der KI-Sicherheit unerlässlich ist, und sagt, dass ihre Teilnahme ein sehr positives Zeichen ist.
- Musk sagte Sunak, er glaube, dass die Regierungen als "Schiedsrichter" fungieren müssten, um die öffentliche Sicherheit mit KI zu gewährleisten und gleichzeitig Innovationen zu ermöglichen. Er bekräftigt seine Ansicht, dass KI insgesamt "eine Kraft für das Gute" sein wird. Dies steht im Gegensatz zu dem, was Musk in der Vergangenheit gesagt hat, und zeigt, dass seine Ansichten über KI mäandernd sind.
- Im Vorfeld des Gesprächs äußert sich Musk optimistisch über das Potenzial der KI, warnt aber vor den Risiken, die sie mit sich bringen könnte, und verwendet die Analogie eines "magischen Flaschengeistproblems", bei dem Wünsche oft schiefgehen
- Auf seiner Pressekonferenz verteidigte Sunak die Maßnahmen, die die Regierungen zur Bewältigung der KI-Sicherheitsrisiken ergreifen, und sagte, sie täten das "Richtige und Verantwortliche", um die Öffentlichkeit zu schützen, auch wenn die Risiken noch ungewiss seien.
- Eine neue Umfrage zeigt, dass nur 15% der Menschen Vertrauen in die Fähigkeit der britischen Regierung haben, KI wirksam zu regulieren. 29% äußern überhaupt kein Vertrauen.
- Auf die Frage, ob KI eine existenzielle Bedrohung darstellen könnte, antwortet Sunak, es sei plausibel, dass sie Risiken in der Größenordnung eines Atomkriegs oder einer Pandemie mit sich bringen könnte. Er argumentiert, dass Führungskräfte daher die Pflicht haben, Schutzmaßnahmen zu ergreifen.
- Wissenschaftsministerin Donelan sagt, dass das KI-Risiko, das sie am meisten beunruhigt, ein "Terminator-Szenario" ist, bei dem die Maschinen unkontrollierbar werden. Sie hält dies für eine geringere Wahrscheinlichkeit, aber für die größte Auswirkung.
Weitere Analysen des Gipfels werden in den nächsten Tagen folgen. Insgesamt entsteht der Eindruck eines symbolisch bedeutsamen Ereignisses, das ein enormes Potenzial hat.
Aber das Potenzial lässt sich nicht ohne weiteres in Rechtsvorschriften und schließlich in Maßnahmen umsetzen. Dies wird sich erst mit der Zeit zeigen.