Das US-Wirtschaftsministerium hat eine Richtlinie herausgegeben, in der offene Modelle befürwortet werden, ein Zeichen für die Haltung der Regierung Biden-Harris zu diesem umstrittenen Thema.
Befürworter geschlossener Modelle wie OpenAI und Google sprechen von den Risiken offener Modelle, während andere wie Meta sich für Varianten der quelloffenen KI einsetzen.
Der DOC-Bericht die von der Abteilung der National Telecommunications and Information Administration (NTIA) verfasst wurde, befürwortet "Offenheit im Bereich der künstlichen Intelligenz (KI) und fordert gleichzeitig eine aktive Überwachung der Risiken von leistungsstarken KI-Modellen".
Die Argumente gegen die Freigabe von Modellen verweisen im Allgemeinen auf das Risiko der doppelten Verwendung, da böswillige Akteure die Modelle für ihre ruchlosen Zwecke nutzen könnten. Die Politik erkennt das Risiko der doppelten Verwendung an, sagt aber, dass die Vorteile die Risiken überwiegen.
"Die Biden-Harris-Regierung setzt alle Hebel in Bewegung, um das Potenzial der KI zu maximieren und gleichzeitig ihre Risiken zu minimieren", sagte US-Handelsministerin Gina Raimondo.
"Der heutige Bericht liefert einen Fahrplan für verantwortungsvolle KI-Innovationen und die Führungsrolle Amerikas, indem er Offenheit fördert und Empfehlungen ausspricht, wie sich die US-Regierung auf potenzielle künftige Herausforderungen vorbereiten und anpassen kann."
In dem Bericht heißt es, die US-Regierung solle aktiv auf mögliche neue Risiken achten, aber die Verfügbarkeit von Modellen mit offenem Gewicht nicht einschränken.
Offene Gewichte öffnen Türen
Jeder kann Metas neueste Version herunterladen Llama 3.1 405B Modell und seine Gewichte. Die Trainingsdaten wurden zwar nicht zur Verfügung gestellt, aber mit den Gewichten haben die Nutzer viel mehr Möglichkeiten als mit GPT-4o oder Claude 3.5 Sonett zum Beispiel.
Der Zugriff auf die Gewichte ermöglicht es Forschern und Entwicklern, einen besseren Überblick über die Vorgänge unter der Haube zu erhalten und Verzerrungen, Fehler oder unerwartete Verhaltensweisen innerhalb des Modells zu erkennen und zu beheben.
Außerdem wird es für die Nutzer viel einfacher, die Modelle auf bestimmte Anwendungsfälle abzustimmen, seien sie nun gut oder schlecht.
Der Bericht stellt fest, dass "die Zugänglichkeit, die offene Gewichte bieten, die Eintrittsbarriere für die Feinabstimmung von Modellen sowohl für nützliche als auch für schädliche Zwecke erheblich senkt. Gegnerische Akteure können durch Feinabstimmung Schutzmechanismen aus offenen Modellen entfernen und das Modell dann frei verbreiten, was letztlich den Wert von Abschwächungstechniken einschränkt".
Zu den Risiken und Vorteilen offener KI-Modelle, die in dem Bericht hervorgehoben werden, gehören:
- Öffentliche Sicherheit
- Geopolitische Überlegungen
- Gesellschaftliche Fragen
- Wettbewerb, Innovation und Forschung
Der Bericht räumt offen die Risiken in jedem dieser Bereiche ein, sagt aber, dass die Vorteile diese überwiegen, wenn die Risiken beherrscht werden.
Bei einem geschlossenen Modell wie GPT-4o müssen wir alle darauf vertrauen, dass OpenAI bei seinen Anpassungsbemühungen gute Arbeit leistet und keine potenziellen Risiken verbirgt. Bei einem Modell mit offenem Gewicht kann jeder Forscher Sicherheitsschwachstellen in einem Modell identifizieren oder eine Prüfung durch Dritte durchführen, um sicherzustellen, dass das Modell den Vorschriften entspricht.
In dem Bericht heißt es: "Die Verfügbarkeit von Modellgewichten könnte es bedenklichen Ländern ermöglichen, robustere fortschrittliche KI-Ökosysteme zu entwickeln... und die Ziele der U.S. Chip-Kontrollen."
Positiv zu vermerken ist jedoch, dass die Bereitstellung von Modellgewichten "die Zusammenarbeit mit Verbündeten stärken und neue Beziehungen zu Entwicklungspartnern vertiefen könnte".
Die US-Regierung ist eindeutig von der Idee offener KI-Modelle überzeugt, auch wenn sie auf Bundesebene und in den Bundesstaaten Vorschriften erlässt, um das Risiko für die Technologie zu verringern. Wenn die Trump-Vance Team die nächste Wahl gewinnt, werden wir wahrscheinlich weiterhin Unterstützung für offene KI sehen, aber mit noch weniger Regulierung.
Modelle mit offenem Gewicht mögen für Innovationen großartig sein, aber wenn die Regulierungsbehörden von den aufkommenden Risiken nichts mitbekommen, kann der KI-Genie nicht wieder in die Flasche gesteckt werden.