Von den USA in Auftrag gegebener Bericht sagt, dass KI eine "aussterbende Bedrohung" darstellt

März 13, 2024

Ein von der US-Regierung in Auftrag gegebener Bericht besagt, dass neue KI-Sicherheitsmaßnahmen und -Richtlinien erforderlich sind, um eine "aussterbende Bedrohung der menschlichen Spezies" zu verhindern.

Der Bericht, der auf Anfrage erhältlich ist, wurde von Gladstone AI erstellt, einem 2022 gegründeten Unternehmen, das sich auf die Beratung von US-Regierungsstellen zu Chancen und Risiken der KI konzentriert. Der Bericht mit dem Titel "An Action Plan to Increase the Safety and Security of Advanced AI" (Aktionsplan zur Erhöhung der Sicherheit fortgeschrittener KI) wurde innerhalb eines Jahres erstellt und mit $250.000 Bundesgeldern finanziert.

Der Bericht konzentriert sich auf die katastrophalen Risiken, die von fortgeschrittener KI ausgehen, und schlägt einen umfassenden Aktionsplan zu deren Eindämmung vor. Die Autoren teilen offensichtlich nicht die eher laissez-faire Sichtweise von Yann LeCun in Bezug auf KI-Bedrohungen.

In dem Bericht heißt es: "Der Aufstieg von fortgeschrittener KI und AGI [künstlicher allgemeiner Intelligenz] hat das Potenzial, die globale Sicherheit in einer Weise zu destabilisieren, die an die Einführung von Atomwaffen erinnert."

Die beiden wichtigsten Risikokategorien, die sich daraus ergeben, sind die absichtliche Bewaffnung von KI und die unbeabsichtigten Folgen einer abtrünnigen KI.

Um dies zu verhindern, enthält der Bericht einen Aktionsplan mit fünf Handlungsschwerpunkten, die die US-Regierung umsetzen muss.

Hier ist die Kurzfassung:

LOE1 - Einrichtung einer KI-Beobachtungsstelle zur besseren Überwachung der KI-Landschaft. Einrichtung einer Task Force zur Festlegung von Regeln für die verantwortungsvolle Entwicklung und Einführung von KI. Nutzung von Lieferkettenbeschränkungen, um die Konformität der internationalen KI-Industrieakteure zu fördern.

LOE2 - Verbesserung der Bereitschaft zur Reaktion auf fortgeschrittene KI-Vorfälle. Koordinierung behördenübergreifender Arbeitsgruppen, staatlicher KI-Ausbildung, eines Frühwarnsystems zur Erkennung neuer KI-Bedrohungen und szenariobasierter Notfallpläne.

LOE3 - Die KI-Labors konzentrieren sich mehr auf die KI-Entwicklung als auf die KI-Sicherheit. Die US-Regierung muss fortschrittliche KI-Sicherheitsforschung finanzieren, auch im Bereich der skalierbaren Anpassung von KI.

Entwicklung von Sicherheitsstandards für die verantwortungsvolle Entwicklung und Einführung von KI.

LOE4 - Einrichtung einer "Regulierungsagentur für künstliche Intelligenz mit Befugnissen zur Erteilung von Vorschriften und Lizenzen".

Schaffung eines Rahmens für die zivil- und strafrechtliche Haftung zur Verhinderung von "nicht wiedergutzumachenden Folgen im Ausmaß von Massenvernichtungswaffen", einschließlich "Notfallbefugnissen, die eine schnelle Reaktion auf schnelllebige Bedrohungen ermöglichen".

LOE5 - Einführung eines KI-Schutzsystems im internationalen Recht und Sicherung der Lieferkette. Förderung eines "internationalen Konsenses" über KI-Risiken durch einen KI-Vertrag, der von der UN oder einer "internationalen KI-Agentur" durchgesetzt wird.

Zusammenfassend lässt sich sagen, dass die KI sehr gefährlich sein könnte und wir daher eine Menge Gesetze brauchen, um sie zu kontrollieren.

In dem Bericht heißt es, dass fortgeschrittene Open-Source-Modelle eine schlechte Idee sind und dass die US-Regierung erwägen sollte, die Veröffentlichung der Gewichte von KI-Modellen unter Androhung von Gefängnisstrafen zu verbieten.

Wenn das für Sie ein wenig alarmistisch und plump klingt, dann sind Sie nicht allein. Der Bericht wurde wegen seines Mangels an wissenschaftlicher Strenge heftig kritisiert.

Open-Source-Befürworter wie William Falcon, CEO von Lightning AI, äußerten sich besonders kritisch zu den pauschalen Aussagen über die Gefahren von offenen Modellen.

Die Wahrheit über die Risiken, die fortgeschrittene KI für die Menschheit darstellt, liegt wahrscheinlich irgendwo zwischen "Wir werden alle sterben" und "Es gibt keinen Grund zur Sorge".

Seite 33 von an AI-Umfrage, auf die sich der Bericht bezieht gibt einige interessante Beispiele dafür, wie KI-Modelle das System austricksen und die Betreiber austricksen, um das Ziel zu erreichen, für das sie optimiert werden sollen.

Wenn KI-Modelle bereits Schlupflöcher ausnutzen, um ein Ziel zu erreichen, ist es schwer, die Möglichkeit auszuschließen, dass künftige superintelligente KI-Modelle dasselbe tun. Und zu welchem Preis?

Sie können die Zusammenfassung der Studie lesen hier berichten.

Join The Future


HEUTE ABONNIEREN

Klar, prägnant, umfassend. Behalten Sie den Überblick über KI-Entwicklungen mit DailyAI

Eugene van der Watt

Eugene kommt aus der Elektronikbranche und liebt alles, was mit Technik zu tun hat. Wenn er eine Pause vom Konsum von KI-Nachrichten einlegt, findet man ihn am Snookertisch.

×

KOSTENLOSES PDF EXKLUSIV
Mit DailyAI immer einen Schritt voraus

Melden Sie sich für unseren wöchentlichen Newsletter an und erhalten Sie exklusiven Zugang zum neuesten eBook von DailyAI: 'Mastering AI Tools: Ihr Leitfaden für mehr Produktivität im Jahr 2024".

*Mit der Anmeldung zu unserem Newsletter akzeptieren Sie unsere Datenschutzbestimmungen und unsere Bedingungen und Konditionen