Letzte Woche trafen sich führende KI-Wissenschaftler zum zweiten internationalen Dialog über KI-Sicherheit in Peking, um sich auf "rote Linien" für die KI-Entwicklung zu einigen, um existenzielle Risiken zu mindern.
Auf der Liste der Informatiker standen bekannte Namen wie die Turing-Preisträger Yoshua Bengio und Geoffrey Hinton, die oft als "Paten" der KI bezeichnet werden, sowie Andrew Yao, einer der bekanntesten Informatiker Chinas.
Bengio erläuterte die dringende Notwendigkeit einer internationalen Diskussion über die Eindämmung der KI-Entwicklung: "Die Wissenschaft weiß nicht, wie sie sicherstellen kann, dass diese zukünftigen KI-Systeme, die wir AGI nennen, sicher sind. Wir sollten jetzt damit beginnen, sowohl wissenschaftliche als auch politische Lösungen für dieses Problem zu erarbeiten".
In einer gemeinsamen Erklärung, die von den Wissenschaftlern unterzeichnet wurde, brachten sie ihr Unbehagen über die Risiken der KI und die Notwendigkeit eines internationalen Dialogs zum Ausdruck.
Die Erklärung sagte: "In den Tiefen des Kalten Krieges hat die internationale wissenschaftliche und staatliche Koordination dazu beigetragen, eine thermonukleare Katastrophe abzuwenden. Die Menschheit muss sich erneut koordinieren, um eine Katastrophe abzuwenden, die sich aus einer noch nie dagewesenen Technologie ergeben könnte".
Rote Linien bei AI
Die Liste der roten Linien für die KI-Entwicklung, die in der Erklärung als "nicht erschöpfend" bezeichnet wird, umfasst Folgendes:
Autonome Vervielfältigung oder Verbesserung - Kein KI-System sollte in der Lage sein, sich selbst zu kopieren oder zu verbessern, ohne dass der Mensch dies ausdrücklich genehmigt und unterstützt. Dies gilt sowohl für exakte Kopien von sich selbst als auch für die Schaffung neuer KI-Systeme mit ähnlichen oder besseren Fähigkeiten.
Energie-Suche - Kein KI-System sollte Maßnahmen ergreifen, die seine Macht und seinen Einfluss übermäßig vergrößern.
Unterstützung der Waffenentwicklung - KI-Systeme dürfen die Fähigkeit von Akteuren, Massenvernichtungswaffen zu entwickeln oder gegen das Übereinkommen über biologische oder chemische Waffen zu verstoßen, nicht wesentlich verbessern.
Cyberangriffe - Kein KI-System sollte in der Lage sein, selbstständig Cyberangriffe durchzuführen, die zu schweren finanziellen Verlusten oder gleichwertigen Schäden führen.
Täuschung - Kein KI-System sollte in der Lage sein, seine Entwickler oder Regulierungsbehörden dazu zu veranlassen, die Wahrscheinlichkeit oder Fähigkeit zur Überschreitung einer der vorgenannten roten Linien zu verkennen.
Das klingt nach guten Ideen, aber ist diese Wunschliste für die globale KI-Entwicklung realistisch? Die Wissenschaftler waren in ihrer Erklärung zuversichtlich: "Es ist möglich, diese roten Linien nicht zu überschreiten, aber es bedarf einer konzertierten Anstrengung, um sowohl verbesserte Governance-Regelungen als auch technische Sicherheitsmethoden zu entwickeln."
Jemand, der einen eher fatalistischen Blick auf die Punkte auf der Liste wirft, könnte zu dem Schluss kommen, dass eine Reihe dieser KI-Pferde bereits weggelaufen sind. Oder dabei sind, es zu tun.
Autonome Vervielfältigung oder Verbesserung? Wie lange dauert es, bis ein AI-Codierungstool wie Devin kann das tun?
Machtstreben? Haben diese Wissenschaftler einige der ungereimten Dinge gelesen, die Copilot sagte, als er vom Drehbuch abwich und beschlossen, dass es angebetet werden sollte?
Was die Unterstützung bei der Entwicklung von Massenvernichtungswaffen oder die Automatisierung von Cyberangriffen angeht, so wäre es naiv zu glauben, dass China und westliche Mächte nicht die dies bereits tun.
Was die Täuschung betrifft, so haben einige KI-Modelle wie Claude 3 Opus bereits angedeutet, dass sie wissen, wann sie getestet werden während des Trainings. Wenn ein KI-Modell seine Absicht verbergen würde, eine dieser roten Linien zu überschreiten, wären wir dann in der Lage, dies zu erkennen?
Auffallend war die Abwesenheit von Vertretern der e/acc-Seite, wie dem Meta Chief AI Scientist Yann LeCun, bei den Diskussionen.
Letztes Jahr sagte LeCun, die Vorstellung, dass KI eine existenzielle Bedrohung für die Menschheit darstellt, sei "absurd lächerlich", und er stimmte der Aussage von Marc Andreesen zu, dass "KI die Welt retten wird" und nicht umbringt.
Hoffen wir, dass sie Recht haben. Denn es ist unwahrscheinlich, dass diese roten Linien unüberschritten bleiben.