Open Source Initiative (OSI) har släppt ett uppdaterat utkast till definition av vad som utgör AI med öppen källkod och säger att Metas modeller inte kvalificerar sig trots företagets påståenden.
Mark Zuckerberg har varit högljudd om Metas engagemang för vad han säger är öppen källkod AI. Men medan modeller som Llama 3.1 är mindre ogenomskinliga än de proprietära modellerna från OpenAI eller Google, föreslår diskussioner i OSI-communityn att Meta använder termen löst.
Vid en Offentligt town hall-evenemang online på fredagen diskuterade OSI de kriterier som de anser att en AI-modell med öppen källkod bör uppfylla. OSI hänvisar till dessa kriterier som "4 friheter" och säger att en AI med öppen källkod "är ett AI-system som görs tillgängligt på villkor och på ett sätt som ger friheterna att:
- Använda systemet för alla ändamål och utan att behöva be om tillstånd.
- Studera hur systemet fungerar och inspektera dess komponenter.
- Modifiera systemet i vilket syfte som helst, inklusive att ändra dess utdata.
- Dela systemet så att andra kan använda det med eller utan ändringar, för vilket ändamål som helst."
För att kunna modifiera en AI-modell måste OSI:s definition av öppen AI säger att vikterna och källkoden ska vara öppna och att utbildningsdatasetet ska vara tillgängligt.
Metas licens innebär vissa begränsningar för hur dess modeller kan användas och det har vägrat att släppa ut de träningsdata som den använde för att träna sina modeller. Om du accepterar att OSI är vårdnadshavaren för vad "öppen källkod" betyder, är implikationen att Meta snedvrider sanningen när den kallar sina modeller "öppna".
OSI är ett kaliforniskt allmännyttigt företag som förlitar sig på samhällsinmatning för att utveckla standarder för öppen källkod. Vissa i det samhället har anklagat Mark Zuckerberg för att "öppna tvätt" Metas modeller och mobbning av branschen för att acceptera sin version snarare än OSI: s definition.
Ordföranden för Open Source Group Japan, Shuji Sado, sa "Det är möjligt att Zuckerberg har en annan definition av Open Source än vi har" och föreslog att det oklara juridiska landskapet kring AI-träningsdata och upphovsrätt kan vara orsaken till detta.
Open Source AI Definition - Veckouppdatering 23 september https://t.co/flbb3yGCmx
- Initiativ för öppen källkod @[email protected] (@OpenSourceOrg) 23 september 2024
Ord är viktiga
Allt detta kan låta som en semantisk diskussion, men beroende på vilken definition AI-industrin antar kan det få allvarliga juridiska konsekvenser.
Meta har haft en tuff tid navigera EU: s GDPR-lagar över sin omättliga hunger efter användarnas sociala mediedata. Vissa människor hävdar att Metas lösa definition av "öppen källkod AI" är ett försök att kringgå nya lagar som EU AI Act.
Lagen innehåller ett begränsat undantag för AI-modeller för allmänt bruk (GPAIM) som släpps under licenser med öppen källkod. Dessa modeller är undantagna från vissa transparensskyldigheter, även om de fortfarande måste tillhandahålla en sammanfattning av det innehåll som använts för att träna modellen.
Å andra sidan är den föreslagna SB 1047 Lagförslag om AI-säkerhet i Kalifornien avskräcker företag som Meta från att anpassa sina modeller till OSI-definitionen. Lagförslaget föreskriver komplexa säkerhetsprotokoll för "öppna" modeller och håller utvecklare ansvariga för skadliga modifieringar och missbruk av dåliga aktörer.
SB 1047 definierar AI-verktyg med öppen källkod som "artificiell intelligensmodell[er] som [görs] fritt tillgängliga och som fritt kan modifieras och omfördelas." Betyder det att en AI-modell som kan finjusteras av en användare är "öppen" eller skulle definitionen endast gälla om modellen kryssar i alla OSI-lådor?
För närvarande ger oklarheten Meta marknadsföringsfördelar och utrymme att förhandla om viss lagstiftning. Vid någon tidpunkt kommer branschen att behöva förbinda sig till en definition. Kommer det att definieras av ett stort teknikföretag som Meta eller av en community-driven organisation som OSI?