Anthropic, Google, Microsoft och OpenAI lanserade Frontier Model Forum i juli och har nu avsatt $10 miljoner till en AI Safety Fund för att stödja initiativet.
Frontier Model Forum initierades i syfte att fastställa AI-säkerhetsstandarder och utvärdera gränsmodeller för att säkerställa en ansvarsfull utveckling. Det ser ut som att gruppen äntligen kan komma igång med verksamheten eftersom de meddelade Chris Meserole som dess första verkställande direktör
Meserole har gedigna AI-meriter efter att nyligen ha varit chef för Artificial Intelligence and Emerging Technology Initiative vid Brookings Institution.
I ett uttalande om sin nya utnämning sa Meserols: "De mest kraftfulla AI-modellerna har ett enormt löfte för samhället, men för att förverkliga deras potential måste vi bättre förstå hur vi säkert kan utveckla och utvärdera dem. Jag ser fram emot att ta mig an den utmaningen med Frontier Model Forum."
Forumets uppdrag är att:
- Främja forskning om AI-säkerhet för att främja en ansvarsfull utveckling av avancerade modeller och minimera potentiella risker
- Identifiera bästa praxis för säkerhet för nya modeller
- Dela kunskap med beslutsfattare, akademiker, civilsamhället och andra för att främja ansvarsfull AI-utveckling
- Stödja insatser för att utnyttja AI för att ta itu med samhällets största utmaningar.
AI Safety Fund inrättades för att finansiera initiativet med ett initialt belopp på $10 miljoner från Anthropic, Google, Microsoft och OpenAI samt några andra filantroper.
Idag lanserar vi en ny AI-säkerhetsfond från Frontier Model Forum: ett åtagande från @Google, @AnthropicAI, @Microsoft och @OpenAI på över $10 miljoner för att främja oberoende forskning för att hjälpa till att testa och utvärdera de mest kapabla AI-modellerna. ↓ https://t.co/TUhrKQWKc1
- Google DeepMind (@GoogleDeepMind) 25 oktober 2023
Ett av de angivna kärnmålen för Frontier Model Forum är "samarbete mellan sektorer". Något som kan hämma deras ambitioner för samarbete är den anmärkningsvärda frånvaron av Meta.
Tidigare i år undertecknade forumet frivilliga AI-åtaganden i Vita huset. Även i avsaknad av Meta kan det fortfarande finnas tillräcklig vikt bakom gruppen för att fastställa AI-standarder som kan bli mer allmänt antagna.
Hur dessa standarder så småningom kommer att införlivas i lagstiftningen återstår att se. Med oenighet kring nyckelområden som utbildningsdata eller potentiella risker i samband med modeller med öppen källkodkommer det att bli svårt att hitta konsensus.