Demis Hassabis, CEO von Google DeepMind, vertrat die Ansicht, dass die Risiken der KI genauso ernst genommen werden sollten wie die Klimakrise, und dass sofort reagiert werden müsse.
Im Vorfeld des britischen KI-Sicherheitsgipfels, der am 1. und 2. November stattfinden wird, erklärte Hassabis, dass die Welt ihre Antwort auf die Herausforderungen der KI nicht hinauszögern sollte.
"Wir müssen die Risiken der KI genauso ernst nehmen wie andere große globale Herausforderungen wie den Klimawandel", erklärte Hassabis.
"Die internationale Gemeinschaft hat zu lange gebraucht, um eine wirksame globale Antwort darauf zu koordinieren, und wir müssen jetzt mit den Folgen leben. Die gleiche Verzögerung können wir uns bei der KI nicht leisten.
Hassabis bezieht sich dabei auf den Zwischenstaatlichen Ausschuss für Klimaänderungen (IPCC).
Er und andere haben sich für eine unabhängige internationale Regulierungsbehörde für KI ausgesprochen, ähnlich wie der IPCC oder die Internationale Atomenergie-Organisation (IAEO) gegründet 1957.
1955 sagte Kommissar Willard F. Libby über die Kernenergie: "Unsere große Gefahr ist, dass dieser große Nutzen für die Menschheit durch unnötige Regulierung im Keim erstickt wird."
Nach der Gründung der IAEO gab es bis Tschernobyl relativ wenige Atomkatastrophen. Wir wissen noch nicht, wie eine "KI-Katastrophe" aussehen könnte.
Abwägung der Vorteile und Risiken der KI
Hassabis erkannte zwar das transformative Potenzial der KI in Bereichen wie Medizin und Wissenschaft an, wies aber auch auf die existenziellen Bedrohungen hin, die von der Technologie ausgehen, insbesondere die Entwicklung superintelligenter Systeme - oder künstlicher allgemeiner Intelligenz (AGI).
"Ich denke, wir müssen mit etwas wie dem IPCC beginnen, wo es sich um eine wissenschaftliche und forschende Vereinbarung mit Berichten handelt, und dann darauf aufbauen", riet Hassabis.
"Ich würde mir wünschen, dass es eines Tages ein Äquivalent zum Cern für KI-Sicherheit gibt, das sich mit dieser Thematik beschäftigt - allerdings auf internationaler Ebene. Und dann gibt es vielleicht eines Tages eine Art Äquivalent zur IAEO, die diese Dinge tatsächlich prüft.
DeepMind hat zahlreiche Arbeiten zum Thema KI-Sicherheit veröffentlicht, darunter ein technischer Blog in Zusammenarbeit mit mehreren Universitäten, in der festgelegt ist, dass Modelle vor der Ausbildung auf "extreme Risiken" geprüft werden müssen.
DeepMind hat auch experimentelle Beweise dafür erbracht, dass KI nach neue aufstrebende Ziele die unvorhersehbar von den Absichten ihrer Entwickler abweichen - oder "abtrünnig" werden.
Hassabis und Vertreter anderer großer KI-Unternehmen wie OpenAI werden im November am AI Safety Summit teilnehmen. Die britische Regierung hat den Zeitplan veröffentlicht für den ersten Tag der Veranstaltung.