Open source AI, met name de Llama-modellen van Meta, heeft een debat op gang gebracht over de risico's van het vrijgeven van krachtige AI-modellen aan iedereen.
Vorige week kwam een groep demonstranten bijeen buiten de kantoren van Meta in San Francisco om de beslissing van het bedrijf om zijn AI-modellen openbaar te maken te veroordelen.
Op een spandoek stond: "Open source doomsday niet."
Het protest werd geplaatst op de Forum voor effectief altruïsme en gaf het volgende als reden op: "De AI-modellen van Meta zijn fundamenteel onveilig... Voordat het nog geavanceerdere modellen uitbrengt - die gevaarlijkere mogelijkheden zullen hebben - roepen we Meta op om verantwoord uitbrengen serieus te nemen en de onomkeerbare proliferatie te stoppen."
De demonstranten creëerden ook een hierwaarin wordt geciteerd Zuckerberg bagatelliseert de veiligheid implicaties van open source modelreleases.
Kortom, prominente bedrijven zoals OpenAI en Google beperken hun grote taalmodellen (LLM's) tot API-toegang. Het zijn gesloten 'black boxes', wat betekent dat het publiek niet kan zien wat er in het model gebeurt - alleen wat de inputs en outputs zijn.
Meta daarentegen haalde de krantenkoppen door zijn LLaMA-modellen openlijk aan te bieden aan de AI-onderzoeksgemeenschap. Dit stelt technisch onderlegde individuen in staat om modellen aan te passen en te tunen zodat ze hun volledige potentieel kunnen benutten, in tegenstelling tot gesloten AI's die zijn geprogrammeerd met vangrails.
Meta's benadering van AI-ontwikkeling
Meta heeft een enigszins antagonistische rol gespeeld in de ontwikkeling van AI.
Terwijl Google, OpenAI, Microsoft en startups als Anthropic en Inflection zich haasten om gesloten AI's te bouwen die achter slot en grendel worden gehouden, heeft Meta ervoor gekozen om zijn open source modellen als een granaat in de openbare ruimte te gooien.
Open source AI zeker bedreigt de marktstructuren Microsoft, OpenAI, enz., afhankelijk zijn van hun producten om geld te verdienen.
Meta's Llamamodel was beroemd om zijn uitgelekt op 4Chan voor de officiële release, en het duurde niet lang voordat het bedrijf een stap verder ging door Llama 2 uit te brengen.
De demonstranten stellen dat de open source-initiatieven van Meta symbool staan voor een "onomkeerbare verspreiding" van mogelijk gevaarlijke technologie. Anderen zijn het hier echter absoluut niet mee eens en stellen dat open source AI van vitaal belang is voor het democratiseren van de technologie en het winnen van vertrouwen via transparantie.
Holly Elmore, die de leiding had over het protest op vrijdag buiten Meta, benadrukte dat zodra modelgewichten die de input en output van modellen beïnvloeden openbaar zijn, de makers de controle verliezen. Open source modellen kunnen worden aangepast en opnieuw worden ontworpen met onethische of illegale gevolgen.
Elmore, die eerder verbonden was aan de denktank Rethink Priorities, verklaarde: "Het vrijgeven van gewichten is een gevaarlijk beleid... Hoe krachtiger de modellen worden, hoe gevaarlijker dit beleid zal worden."
Open source AI zal een controversieel onderwerp blijven, maar de technologie overlaten aan de controle van een selecte groep is mogelijk geen gunstig alternatief.