Die von Präsident Biden im Oktober unterzeichnete Verfügung beauftragte das National Institute of Standards and Technology (NIST) mit der Untersuchung, wie die Sicherheit von KI-Modellen getestet und analysiert werden kann. Der Einfluss der RAND Corporation auf das NIST steht auf dem Prüfstand.
RAND ist eine einflussreiche Denkfabrik mit engen Verbindungen zu Tech-Milliardären und KI-Akteuren, die der Bewegung des "effektiven Altruismus" nahestehen. Kürzlich kam ans Licht, dass RAND spielte eine wichtige beratende Rolle bei der Ausarbeitung von Bidens Durchführungsverordnung zur KI-Sicherheit.
Der Ausschuss für Wissenschaft, Raumfahrt und Technologie des US-Kongresses hat seine Besorgnis zum Ausdruck gebracht in einem Brief darüber, wie das NIST sein Mandat ausführt und wie Forschungsarbeiten von Gruppen wie RAND seine Arbeit beeinflussen können.
In dem an das NIST gerichteten Schreiben heißt es, der Ausschuss sei "besorgt über die Art und Weise, wie die AISI externe Organisationen finanziert, und über die Transparenz dieser Auszeichnungen".
Wer berät die AISI?
Das NIST hat das Artificial Intelligence Safety Institute (AISI) gegründet und wird wahrscheinlich einen großen Teil der Forschung, die es im Bereich der KI-Sicherheit durchführen muss, extern vergeben. An wen wird es die Forschung auslagern? Das NIST macht dazu keine Angaben, aber zwei Gruppen wurden Berichten zufolge vom Institut beauftragt.
In dem Schreiben des Ausschusses wird RAND zwar nicht namentlich erwähnt, aber ein Verweis auf einen Bericht des Think Tanks macht deutlich, dass man besorgt ist, dass RAND weiterhin seinen Einfluss auf die KI-Regulierung ausüben könnte.
In dem Schreiben heißt es: "Organisationen weisen routinemäßig auf erhebliche spekulative Vorteile oder Risiken von KI-Systemen hin, liefern aber keine Beweise für ihre Behauptungen, führen nicht reproduzierbare Forschungsarbeiten durch, verstecken sich hinter Geheimhaltung, verwenden Bewertungsmethoden, denen es an Konstruktvalidität mangelt, oder zitieren Forschungsarbeiten, die keine soliden Überprüfungsprozesse, wie z. B. eine akademische Peer Review, durchlaufen haben".
Zur Veranschaulichung verweist das Papier auf eine Untersuchung der RAND Corp. mit dem Titel: "The Operational Risks of AI in Large-Scale Biological Attacks". Dieser Bericht kam zu dem Schluss, dass LLMs "bei der Planung und Durchführung eines biologischen Angriffs helfen könnten".
Wie wird sich dies auf die KI-Regulierung auswirken?
Die Motivation hinter der unsubtilen KI-Angstmacherei in der RAND-Forschung wird deutlicher, wenn man dem Geld folgt. RAND erhielt $15,5 Millionen an Zuschüssen von Open Philanthropy, einer Organisation, die sich auf die Unterstützung von wirksamer Altruismus Ursachen.
Die Befürworter eines effektiven Altruismus gehören zu den lautesten Stimmen, die einen Stopp oder eine Verlangsamung der Entwicklung von KI fordern. Wenn RAND eine der beiden Organisationen ist, die Berichten zufolge mit der Forschung für die AISI beauftragt wurden, dann können wir in naher Zukunft mit einer strengeren Regulierung der KI rechnen.
In dem Schreiben des Ausschusses heißt es: "Bei der Umsetzung der AISI erwarten wir, dass das NIST die Empfänger von Bundesmitteln für die KI-Sicherheitsforschung an die gleichen strengen Richtlinien für die wissenschaftliche und methodische Qualität hält, die auch für die Bundesforschung im Allgemeinen gelten."
Mit anderen Worten: Nur weil jemand wie RAND sagt, dass KI ein existenzielles Risiko darstellt, ist das noch lange nicht der Fall.
Wird das NIST Beiträge von KI-Beschleunigern wie Metas VP und Chief AI Scientist Yann LeCun einholen? In einem kürzlich geführten Interview mit Wired sagte LeCun: "Wann immer die Technologie Fortschritte macht, kann man nicht verhindern, dass die Bösewichte Zugang zu ihr haben. Dann heißt es: meine gute KI gegen deine schlechte KI. Der Weg, die Nase vorn zu behalten, besteht darin, schneller voranzukommen. Der Weg, schneller voranzukommen, besteht darin, die Forschung zu öffnen, so dass eine größere Gemeinschaft dazu beiträgt."
Die Arbeit des NIST ist stark darauf ausgerichtet, genaue Messungen vorzunehmen. Wer als Berater ausgewählt wird, wird unweigerlich das Zünglein an der Waage bei der KI-Regulierung sein.