Die KI-Branche sollte von der nuklearen Sicherheit lernen, meinen Experten

Juni 6, 2023

nukleare Sicherheit

Die Entwicklung der KI ist schnell vorangeschritten, was bedeutet, dass die Regulierung aufholen muss und die Governance eher ein Nachspiel hat.

Es gibt nur wenige formale Verfahren zur Gewährleistung der KI-Sicherheit, und die Forscher sagen, dass es an der Industrie liegt, dies zu ändern.

Viele führende KI-Experten und Persönlichkeiten der Branche haben die KI mit der Kernenergie verglichen. Es gibt viele Ähnlichkeiten - KI wächst schnell, sie stellt ein potenziell existenzielles Risiko dar und wird durch außenpolitische Angelegenheiten kompliziert, diesmal zwischen den aufstrebenden KI-Supermächten USA und China.

Es dauerte Jahrzehnte, bis Nuklearingenieure die breitere wissenschaftliche Gemeinschaft von der Sicherheit von Kernreaktoren überzeugen konnten. Die ersten Reaktoren wurden in den späten 40er und frühen 50er Jahren gebaut, und erst mit dem US-Atomenergiegesetz von 1954 kam ein gewisses Maß an Regulierung auf. 

Die US-Regierung war sich der Risiken der Kernenergie bewusst, aber da die UdSSR Mitte 1954 ihren ersten Bürgerreaktor in Betrieb nahm, verschwendete sie keine Zeit mit dem Bau ihres eigenen. 1955 sagte Kommissar Willard F. Libby: "Unsere große Gefahr ist, dass dieser große Nutzen für die Menschheit durch unnötige Regulierung im Keim erstickt wird."

Kommt Ihnen hier etwas bekannt vor? Erst letzten Monat hat OpenAI-CEO Sam Altman ein internationales Gremium ins Leben gerufen hat für die Sicherheit der Kernenergie wie die 1957 gegründete Internationale Atomenergie-Organisation (IAEO). Ähnlich wie bei der Kernenergie ist die gRegierungen auf der ganzen Welt arbeiten daran, die Vorteile der KI zu erhalten und gleichzeitig die Risiken zu regulieren. 

Die IAEO war ein eigenständiger Bestandteil der UNO und hat heute 174 Mitgliedstaaten. Nach 1957 gab es bis Tschernobyl relativ wenige Nuklearkatastrophen.

AI sollte von der Geschichte der nuklearen Sicherheit lernen

Heidy Khlaaf, technische Leiterin bei der Beratungsfirma für Cybersicherheit Spur der Bitsdie zur Bewertung und Überprüfung der Sicherheit von Kernkraftwerken verwendet werden. Sie sagte kürzlich dem MIT dass für Kernkraftwerke Tausende von Dokumenten erforderlich sind, um ihre Sicherheit zu bescheinigen, wobei jedes einzelne Bauteil bis in die kleinsten Nuancen untersucht wird. 

Nach Tschernobyl wurden die Vorschriften für die Kernkraft extrem verschärft. Die Planung, die Genehmigung und der Bau eines Kernreaktors können 10 Jahre oder länger dauern, auch weil der Prozess in jeder Phase so streng überwacht wird. Khlaaf weist darauf hin, dass dies nichts mit Profiten zu tun hat - die nukleare Sicherheit ist das Ergebnis eines echten existenziellen Risikos. 

Im Gegensatz dazu berichten KI-Unternehmen über ihre Modelle mit einfachen "Karten", die im Wesentlichen Funktionen auflisten. 

Darüber hinaus ist das Innenleben des Modells oft eine "Black Box", d. h. die Entscheidungsprozesse sind für externe Beobachter weitgehend verschlossen. 

Selbst ChatGPT ist im Gegensatz zu OpenAIs Namensvetter eine Blackbox, und KI-Unternehmen haben sich bereits den Ruf erworben, dass sie über ihre Modelle und Trainingsdaten zurückhaltend sind. 

Stellen Sie sich vor, Atomreaktoren wären eine "Black Box" und ihre Entwickler würden der Öffentlichkeit nicht sagen, wie sie funktionieren? 

Die Analyse von AI-Risiken muss systematisch erfolgen 

Um die Risiken zu mindern, die KI-Führungskräfte wie Altman bereitwillig zugeben, müssen Unternehmen ihre Rückverfolgbarkeitsstrategien vertiefen. Dazu gehört eine rigorose Überwachung von Beginn des KI-Entwicklungsprozesses an. 

Khlaaf sagt: "Man muss die Risiken systematisch durchgehen. Es ist kein Szenario, bei dem man einfach sagt: 'Oh, das könnte passieren. Ich schreibe es einfach auf.'" 

Derzeit gibt es kein etabliertes Verfahren für die Bewertung von KI-Risiken, aber es gab einige Versuche, ein solches zu schaffen. 

Zum Beispiel, DeepMind veröffentlichte kürzlich einen technischen Blog in Zusammenarbeit mit mehreren Universitäten, in der festgelegt wird, dass die Modelle vor der Ausbildung auf "extreme Risiken" geprüft werden sollten. In dem Papier werden zwei Strategien vorgeschlagen:

  1. Bewertung des Ausmaßes der "gefährlichen Fähigkeiten" eines Modells, die zur Bedrohung der Sicherheit, zur Einflussnahme oder zur Umgehung der menschlichen Aufsicht eingesetzt werden könnten.
  2. Bewertung des Ausmaßes, in dem ein Modell Schaden anrichten kann, z. B. ob die Gefahr besteht, dass es sich nicht wie vorgesehen verhält. 

Toby Shevlane, einer der Forscher des Projekts, sagte: "Führende KI-Unternehmen, die die Entwicklung vorantreiben, haben die Verantwortung, auf entstehende Probleme zu achten und sie frühzeitig zu erkennen, damit wir sie so schnell wie möglich angehen können."

Wenn die KI von der nuklearen Sicherheit lernen soll, dann ist eine frühzeitige Regulierung entscheidend, aber langfristige Selbstzufriedenheit ist tödlich. Niemand weiß, wie eine KI-Version von Tschernobyl oder Fukushima aussehen würde, und niemand will es herausfinden.

Join The Future


HEUTE ABONNIEREN

Klar, prägnant, umfassend. Behalten Sie den Überblick über KI-Entwicklungen mit DailyAI

Sam Jeans

Sam ist ein Wissenschafts- und Technologiewissenschaftler, der in verschiedenen KI-Startups gearbeitet hat. Wenn er nicht gerade schreibt, liest er medizinische Fachzeitschriften oder kramt in Kisten mit Schallplatten.

×

KOSTENLOSES PDF EXKLUSIV
Mit DailyAI immer einen Schritt voraus

Melden Sie sich für unseren wöchentlichen Newsletter an und erhalten Sie exklusiven Zugang zum neuesten eBook von DailyAI: 'Mastering AI Tools: Ihr Leitfaden für mehr Produktivität im Jahr 2024".

*Mit der Anmeldung zu unserem Newsletter akzeptieren Sie unsere Datenschutzbestimmungen und unsere Bedingungen und Konditionen