Anthropic, Google, Microsoft og OpenAI lanserte Frontier Model Forum i juli, og har nå bevilget $10 millioner til et AI Safety Fund for å støtte initiativet.
Frontier Model Forum ble opprettet med det formål å fastsette sikkerhetsstandarder for kunstig intelligens og evaluere frontier-modeller for å sikre en ansvarlig utvikling. Det ser ut til at gruppen endelig kan komme i gang med arbeidet, ettersom de kunngjort Chris Meserole som første administrerende direktør
Meserole har solide AI-meritter etter nylig å ha vært direktør for Artificial Intelligence and Emerging Technology Initiative ved Brookings Institution.
I en uttalelse om utnevnelsen sa Meserols: "De kraftigste AI-modellene har et enormt potensial for samfunnet, men for å realisere dette potensialet må vi forstå bedre hvordan vi kan utvikle og evaluere dem på en trygg måte. Jeg gleder meg til å ta fatt på den utfordringen sammen med Frontier Model Forum."
Forumets oppgave er å:
- Fremme forskning på KI-sikkerhet for å fremme ansvarlig utvikling av banebrytende modeller og minimere potensielle risikoer
- Identifisere beste praksis for sikkerhet for frontier-modeller
- Dele kunnskap med beslutningstakere, akademikere, sivilsamfunnet og andre for å fremme ansvarlig AI-utvikling
- Støtt arbeidet med å utnytte kunstig intelligens for å løse samfunnets største utfordringer.
AI Safety Fund ble opprettet for å finansiere initiativet med et startbeløp på $10 millioner fra Anthropic, Google, Microsoft og OpenAI, i tillegg til noen andre filantroper.
I dag lanserer vi et nytt AI Safety Fund fra Frontier Model Forum: en forpliktelse fra @Google, @AnthropicAI, @Microsoft og @OpenAI på over $10 millioner til å fremme uavhengig forskning for å teste og evaluere de mest effektive AI-modellene. ↓ https://t.co/TUhrKQWKc1
- Google DeepMind (@GoogleDeepMind) 25. oktober 2023
Et av de uttalte hovedmålene til Frontier Model Forum er "samarbeid på tvers av sektorer". Noe som kan hemme ambisjonene om samarbeid, er det påfallende fraværet av Meta.
Tidligere i år undertegnet forumet frivillige AI-forpliktelser i Det hvite hus. Selv uten Meta kan det likevel være tilstrekkelig tyngde bak gruppen til å fastsette AI-standarder som kan bli tatt i bruk i større grad.
Det gjenstår å se hvordan disse standardene til slutt vil bli innlemmet i lovgivningen. Med uenighet rundt viktige områder som opplæringsdata eller potensielle risikoer forbundet med modeller med åpen kildekodeblir det vanskelig å oppnå konsensus.