Open Source Initiative (OSI) har udgivet et opdateret udkast til definition af, hvad der udgør open source AI, og siger, at Metas modeller ikke kvalificerer sig på trods af virksomhedens påstande.
Mark Zuckerberg har udtalt sig om Metas engagement i det, han kalder open source AI. Men selvom modeller som Llama 3.1 er mindre uigennemsigtige end de proprietære modeller fra OpenAI eller Google, tyder diskussioner i OSI-samfundet på, at Meta bruger udtrykket løst.
På en online offentligt rådhusarrangement I fredags diskuterede OSI de kriterier, som de mener, at en ægte open source AI-model skal overholde. OSI refererer til disse kriterier som "4 friheder" og siger, at en open source AI "er et AI-system, der stilles til rådighed under vilkår og på en måde, der giver frihederne til:
- Brug systemet til ethvert formål og uden at skulle spørge om lov.
- Undersøg, hvordan systemet fungerer, og inspicer dets komponenter.
- Ændre systemet til et hvilket som helst formål, herunder at ændre dets output.
- Del systemet, så andre kan bruge det med eller uden ændringer til ethvert formål."
For at kunne ændre en AI-model skal OSI's åben AI-definition siger, at vægtene og kildekoden skal være åbne, og at træningsdatasættet skal være tilgængeligt.
Metas licens lægger nogle begrænsninger på, hvordan dens modeller kan bruges, og den har afvist at frigive de træningsdata, den brugte til at træne sine modeller. Hvis du accepterer, at OSI er vogter af, hvad "open source" betyder, så er konsekvensen, at Meta fordrejer sandheden, når de kalder deres modeller "åbne".
OSI er et californisk almennyttigt selskab, der er afhængig af input fra lokalsamfundet for at udvikle open source-standarder. Nogle i dette samfund har beskyldt Mark Zuckerberg for at "openwashe" Metas modeller og mobbe branchen til at acceptere hans version i stedet for OSI's definition.
Formanden for Open Source Group Japan, Shuji Sado, sagde: "Det er muligt, at Zuckerberg har en anden definition af Open Source, end vi har", og foreslog, at det uklare juridiske landskab omkring AI-træningsdata og ophavsret kunne være årsagen til dette.
Open Source AI Definition - Ugentlig opdatering 23. september https://t.co/flbb3yGCmx
- Open Source-initiativet @[email protected] (@OpenSourceOrg) 23. september 2024
Ord er vigtige
Det lyder måske som en diskussion om semantik, men afhængigt af den definition, som AI-industrien vedtager, kan det få alvorlige juridiske konsekvenser.
Meta har haft en hård tid navigere i EU's GDPR-love på grund af sin umættelige sult efter brugernes data fra sociale medier. Nogle hævder, at Metas løse definition af "open source AI" er et forsøg på at omgå nye love som f.eks. EU AI Act.
Loven indeholder en begrænset undtagelse for AI-modeller til generelle formål (GPAIM'er), der frigives under open source-licenser. Disse modeller er undtaget fra visse gennemsigtighedsforpligtelser, selvom de stadig skal give et resumé af det indhold, der bruges til at træne modellen.
På den anden side er den foreslåede SB 1047 Lovforslag om AI-sikkerhed i Californien afskrækker virksomheder som Meta fra at tilpasse deres modeller til OSI-definitionen. Lovforslaget kræver komplekse sikkerhedsprotokoller for "åbne" modeller og holder udviklere ansvarlige for skadelige ændringer og misbrug af dårlige aktører.
SB 1047 definerer open source AI-værktøjer som "kunstig intelligensmodel[ler], der [er] frit tilgængelige, og som frit kan ændres og videredistribueres." Betyder det, at en AI-model, der kan finjusteres af en bruger, er "åben", eller gælder definitionen kun, hvis modellen opfylder alle OSI-bokse?
Indtil videre giver uklarheden Meta markedsføringsfordele og plads til at forhandle om lovgivning. På et tidspunkt bliver branchen nødt til at forpligte sig til en definition. Vil den blive defineret af en stor teknologivirksomhed som Meta eller af en samfundsdrevet organisation som OSI?