Anthropic, Google, Microsoft und OpenAI riefen im Juli das Frontier Model Forum ins Leben und haben nun $10 Mio. für einen KI-Sicherheitsfonds zur Unterstützung der Initiative bereitgestellt.
Das Frontier Model Forum wurde mit dem Ziel ins Leben gerufen, KI-Sicherheitsstandards festzulegen und Frontier-Modelle zu bewerten, um eine verantwortungsvolle Entwicklung zu gewährleisten. Es sieht so aus, als würde sich die Gruppe endlich an die Arbeit machen, da sie angekündigt Chris Meserole als erster Exekutivdirektor
Meserole verfügt über solide Referenzen im Bereich der künstlichen Intelligenz, da er kürzlich als Direktor der Artificial Intelligence and Emerging Technology Initiative an der Brookings Institution tätig war.
In einer Erklärung zu seiner neuen Ernennung sagte Meserols: "Die leistungsfähigsten KI-Modelle bergen ein enormes Potenzial für die Gesellschaft, aber um ihr Potenzial auszuschöpfen, müssen wir besser verstehen, wie wir sie sicher entwickeln und bewerten können. Ich freue mich darauf, diese Herausforderung mit dem Frontier Model Forum anzunehmen".
Die Aufgabe des Forums ist es:
- Förderung der KI-Sicherheitsforschung, um die verantwortungsvolle Entwicklung von Pioniermodellen zu fördern und potenzielle Risiken zu minimieren
- Ermittlung bewährter Sicherheitspraktiken für Pioniermodelle
- Wissensaustausch mit politischen Entscheidungsträgern, Wissenschaftlern, der Zivilgesellschaft und anderen, um eine verantwortungsvolle KI-Entwicklung voranzutreiben
- Unterstützung der Bemühungen um die Nutzung von KI zur Bewältigung der größten gesellschaftlichen Herausforderungen.
Der KI-Sicherheitsfonds wurde eingerichtet, um die Initiative mit einem anfänglichen Betrag von $10 Mio. zu finanzieren, der von Anthropic, Google, Microsoft und OpenAI sowie von einigen anderen Philanthropen stammt.
Heute stellen wir einen neuen KI-Sicherheitsfonds des Frontier Model Forum vor: ein Engagement von @Google, @AnthropicAI, @Microsoft und @OpenAI von über $10 Mio. zur Förderung unabhängiger Forschung, um die leistungsfähigsten KI-Modelle zu testen und zu bewerten. ↓ https://t.co/TUhrKQWKc1
- Google DeepMind (@GoogleDeepMind) 25. Oktober 2023
Eines der erklärten Hauptziele des Frontier Model Forum ist die "sektorübergreifende Zusammenarbeit". Ein Hindernis für die angestrebte Zusammenarbeit könnte das Fehlen von Meta sein.
Anfang dieses Jahres hat das Forum im Weißen Haus freiwillige KI-Verpflichtungen unterzeichnet. Auch ohne Meta könnte die Gruppe genügend Gewicht haben, um KI-Standards zu setzen, die sich weiter verbreiten könnten.
Es bleibt abzuwarten, wie diese Standards letztendlich in die Gesetzgebung einfließen werden. Uneinigkeit herrscht in Schlüsselbereichen wie Ausbildungsdaten oder potenzielle Risiken im Zusammenhang mit Open-Source-Modellenwird es schwer sein, einen Konsens zu finden.