Anthropic, Google, Microsoft en OpenAI lanceerden in juli het Frontier Model Forum en hebben nu $10m toegezegd aan een AI Safety Fund om het initiatief te ondersteunen.
Het Frontier Model Forum werd opgericht met als doel AI-veiligheidsnormen op te stellen en grensverleggende modellen te evalueren om een verantwoorde ontwikkeling te garanderen. Het lijkt erop dat de groep eindelijk aan de slag gaat, want ze aangekondigd Chris Meserole als eerste uitvoerend directeur
Meserole heeft gedegen AI-kennis en was onlangs directeur van het Artificial Intelligence and Emerging Technology Initiative bij het Brookings Institution.
In een verklaring over zijn nieuwe aanstelling zei Meserols: "De krachtigste AI-modellen houden een enorme belofte in voor de maatschappij, maar om hun potentieel te realiseren moeten we beter begrijpen hoe we ze veilig kunnen ontwikkelen en evalueren. Ik ben verheugd om die uitdaging aan te gaan met het Frontier Model Forum."
De missie van het forum is om:
- Onderzoek naar AI-veiligheid bevorderen om een verantwoorde ontwikkeling van grensverleggende modellen te stimuleren en potentiële risico's te minimaliseren
- Beste praktijken op het gebied van veiligheid voor grensverleggende modellen identificeren
- Kennis delen met beleidsmakers, academici, maatschappelijke organisaties en anderen om verantwoorde AI-ontwikkeling te bevorderen
- Inspanningen ondersteunen om AI in te zetten om de grootste maatschappelijke uitdagingen aan te pakken.
Het AI Safety Fund werd opgericht om het initiatief te financieren met een initieel bedrag van $10m afkomstig van Anthropic, Google, Microsoft en OpenAI en enkele andere filantropen.
Vandaag lanceren we een nieuw AI-veiligheidsfonds van het Frontier Model Forum: een toezegging van @Google, @AnthropicAI, @Microsoft en @OpenAI van meer dan $10 miljoen om onafhankelijk onderzoek te bevorderen om te helpen bij het testen en evalueren van de meest capabele AI-modellen. ↓ https://t.co/TUhrKQWKc1
- Google DeepMind (@GoogleDeepMind) 25 oktober 2023
Een van de kerndoelen van het Frontier Model Forum is "samenwerken in verschillende sectoren". Iets wat hun ambities voor samenwerking in de weg kan staan, is de opvallende afwezigheid van Meta.
Eerder dit jaar ondertekende het Forum vrijwillige AI-toezeggingen in het Witte Huis. Zelfs als er geen Meta is, kan er nog steeds voldoende gewicht achter de groep staan om AI-normen op te stellen die op grotere schaal kunnen worden toegepast.
Hoe deze standaarden uiteindelijk in wetgeving worden omgezet, valt nog te bezien. Met onenigheid over belangrijke gebieden zoals trainingsgegevens of potentiële risico's van open source-modellenzal het moeilijk zijn om consensus te vinden.