Anthropic, Google, Microsoft og OpenAI lancerede Frontier Model Forum i juli og har nu afsat $10 mio. til en AI Safety Fund for at støtte initiativet.
Frontier Model Forum blev startet med det formål at fastsætte sikkerhedsstandarder for AI og evaluere frontier-modeller for at sikre en ansvarlig udvikling. Det ser ud til, at gruppen endelig kommer i gang med arbejdet, da de annonceret Chris Meserole som den første administrerende direktør
Meserole har solide AI-legitimationsoplysninger, idet han for nylig var direktør for Artificial Intelligence and Emerging Technology Initiative ved Brookings Institution.
I en udtalelse om sin nye udnævnelse sagde Meserols: "De mest kraftfulde AI-modeller rummer et enormt løfte for samfundet, men for at realisere deres potentiale er vi nødt til bedre at forstå, hvordan vi sikkert kan udvikle og evaluere dem. Jeg glæder mig til at tage den udfordring op med Frontier Model Forum."
Forummets mission er at:
- Fremme forskning i AI-sikkerhed for at fremme ansvarlig udvikling af avancerede modeller og minimere potentielle risici
- Identificer bedste praksis for sikkerhed for nye modeller
- Del viden med beslutningstagere, akademikere, civilsamfundet og andre for at fremme ansvarlig AI-udvikling
- Støt indsatsen for at udnytte AI til at løse samfundets største udfordringer.
AI Safety Fund blev oprettet for at finansiere initiativet med et indledende beløb på $10 mio. fra Anthropic, Google, Microsoft og OpenAI samt nogle andre filantroper.
I dag lancerer vi en ny AI-sikkerhedsfond fra Frontier Model Forum: et engagement fra @Google, @AnthropicAI, @Microsoft og @OpenAI på over $10 millioner til at fremme uafhængig forskning for at hjælpe med at teste og evaluere de dygtigste AI-modeller. ↓ https://t.co/TUhrKQWKc1
- Google DeepMind (@GoogleDeepMind) 25. oktober 2023
Et af de erklærede hovedmål for Frontier Model Forum er "at samarbejde på tværs af sektorer". Noget, der kan hæmme deres ambitioner om samarbejde, er det bemærkelsesværdige fravær af Meta.
Tidligere i år skrev forummet under på frivillige AI-forpligtelser i Det Hvide Hus. Selv i mangel af Meta kan der stadig være tilstrækkelig vægt bag gruppen til at fastsætte AI-standarder, der kan blive mere udbredte.
Det er endnu uvist, hvordan disse standarder ender med at blive omsat til lovgivning. Med uenighed omkring nøgleområder som træningsdata eller potentielle risici forbundet med open source-modellerbliver det svært at finde konsensus.