Demonstranter kritiserar Metas öppna källkodsstrategi för AI-utveckling

8 oktober 2023

Meta AI

Open source AI, särskilt Meta's Llama-modeller, har väckt debatt om riskerna med att släppa kraftfulla AI-modeller till alla.

Förra veckan samlades en grupp demonstranter utanför Metas kontor i San Francisco och fördömde företagets beslut att offentliggöra sina AI-modeller.

På en banderoll stod det: "Öppna inte källkod för domedagen." 

Protesten publicerades på Forum för effektiv altruism och angav följande som sin grund: "Metas AI-modeller i gränslandet är i grunden osäkra ... Innan de släpper ännu mer avancerade modeller - som kommer att ha farligare kapacitet - uppmanar vi Meta att ta ansvarsfull utgivning på allvar och stoppa irreversibel spridning." 

Demonstranterna skapade också en webbplats här, som citerar Zuckerberg bagatelliserar säkerheten Konsekvenser av modellversioner med öppen källkod. 

Kort sagt begränsar framstående företag som OpenAI och Google sina stora språkmodeller (LLM) till API-åtkomst. De är slutna "svarta lådor", vilket innebär att allmänheten inte kan se vad som händer inuti modellen - bara vilka in- och utgångar som finns. 

Däremot gjorde Meta rubriker genom att erbjuda sina LLaMA-modeller öppet till AI-forskningssamhället. Detta gör det möjligt för tekniskt kunniga individer att anpassa och ställa in modeller för att frigöra sin fulla potential, till skillnad från stängda AI som är programmerade med säkerhetsräcken. 

Metas inställning till AI-utveckling

Meta har haft en något antagonistisk roll i AI-utvecklingen.

När Google, OpenAI, Microsoft och startups som Anthropic och Inflection rusar för att bygga stängda AI: er som hålls under lås och nyckel, har Meta valt att kasta sina öppna källkodsmodeller i den offentliga sfären som en levande granat.

AI med öppen källkod säkert hotar marknadsstrukturerna Microsoft, OpenAI etc. är beroende av för att tjäna pengar på sina produkter.

Meta's Llama-modell var berömd läckt ut på 4Chan innan den släpptes officiellt, och det dröjde inte länge innan företaget gick ett steg längre genom att släppa Llama 2. 

Demonstranterna hävdar att Metas initiativ för öppen källkod symboliserar en "oåterkallelig spridning" av eventuellt farlig teknik. Andra håller dock inte med och hävdar att AI med öppen källkod är avgörande för att demokratisera tekniken och få förtroende via öppenhet.

Holly Elmore, som ledde fredagens protest utanför Meta, betonade att när modellvikter som påverkar modellinmatningar och utdata är i det offentliga området, förlorar skaparna kontrollen. Modeller med öppen källkod kan modifieras och omkonstrueras för oetiska eller olagliga konsekvenser. 

Elmore, tidigare associerad med tankesmedjan Rethink Priorities, sade: "Att släppa vikter är en farlig politik ... Ju mer kraftfulla modellerna blir, desto farligare kommer denna politik att bli." 

AI med öppen källkod kommer att förbli ett kontroversiellt ämne, men att lämna tekniken till ett fåtal utvalda är kanske inte ett bra alternativ.

Bli en del av framtiden


PRENUMERERA IDAG

Tydlig, kortfattad och heltäckande. Få grepp om AI-utvecklingen med DagligaAI

Sam Jeans

Sam är en vetenskaps- och teknikskribent som har arbetat i olika AI-startups. När han inte skriver läser han medicinska tidskrifter eller gräver igenom lådor med vinylskivor.

×

GRATIS PDF EXKLUSIV
Ligg steget före med DailyAI

Registrera dig för vårt veckovisa nyhetsbrev och få exklusiv tillgång till DailyAI:s senaste e-bok: "Mastering AI Tools: Din 2024-guide till förbättrad produktivitet".

*Genom att prenumerera på vårt nyhetsbrev accepterar du vår Integritetspolicy och våra Villkor och anvisningar