Open source AI, især Metas Llama-modeller, har udløst en debat om risikoen ved at frigive kraftfulde AI-modeller til alle.
I sidste uge samledes en gruppe demonstranter uden for Metas kontor i San Francisco og fordømte virksomhedens beslutning om at offentliggøre sine AI-modeller.
På et banner stod der: "Lad være med at open source dommedag."
Protesten blev slået op på Forum for effektiv altruisme og angav følgende som begrundelse: "Metas avancerede AI-modeller er grundlæggende usikre ... Før de frigiver endnu mere avancerede modeller - som vil have farligere egenskaber - opfordrer vi Meta til at tage ansvarlig frigivelse alvorligt og stoppe uigenkaldelig spredning."
Demonstranterne skabte også en hjemmeside her, som citerer Zuckerberg nedtoner sikkerheden konsekvenser af open source-modeludgivelser.
Kort sagt begrænser fremtrædende virksomheder som OpenAI og Google deres store sprogmodeller (LLM'er) til API-adgang. De er lukkede 'sorte bokse', hvilket betyder, at offentligheden ikke kan se, hvad der sker inde i modellen - kun input og output.
I modsætning hertil skabte Meta overskrifter ved at tilbyde sine LLaMA-modeller åbent til AI-forskningssamfundet. Det gør det muligt for teknisk kyndige personer at tilpasse og tune modellerne til at frigøre deres fulde potentiale, i modsætning til lukkede AI'er, som er programmeret med sikkerhedsforanstaltninger.
Metas tilgang til AI-udvikling
Meta har haft en lidt antagonistisk rolle i AI-udviklingen.
Mens Google, OpenAI, Microsoft og startups som Anthropic og Inflection skynder sig at bygge lukkede AI'er, der holdes under lås og slå, har Meta valgt at kaste sine open source-modeller ud i det offentlige rum som en levende granat.
Open source AI helt sikkert truer markedsstrukturerne Microsoft, OpenAI osv. er afhængige af for at tjene penge på deres produkter.
Meta's Llama-model var berømt og berygtet lækket på 4Chan før den officielle udgivelse, og det varede ikke længe, før virksomheden gik et skridt videre ved at udgive Llama 2.
Demonstranterne hævder, at Metas open source-initiativer symboliserer en "irreversibel spredning" af muligvis farlig teknologi. Andre er dog lodret uenige og hævder, at open source AI er afgørende for at demokratisere teknologien og skabe tillid via gennemsigtighed.
Holly Elmore, som stod i spidsen for fredagens protest uden for Meta, understregede, at når modelvægte, der påvirker modelinput og -output, er i det offentlige domæne, mister skaberne kontrollen. Open source-modeller kan ændres og genudvikles med uetiske eller ulovlige konsekvenser.
Elmore, der tidligere har været tilknyttet tænketanken Rethink Priorities, udtalte: "At frigive vægte er en farlig politik ... Jo mere kraftfulde modellerne bliver, jo farligere bliver denne politik."
Open source AI vil fortsat være et kontroversielt emne, men at overlade teknologien til nogle få udvalgte er muligvis ikke et godt alternativ.