USA:s handelsdepartement utfärdade en policy som stödjer öppna modeller, vilket är ett tecken på Biden-Harris-administrationens syn på den omtvistade frågan.
Anhängare av slutna modeller som OpenAI och Google talar om riskerna med öppna modeller medan andra som Meta är engagerade i varianter av AI med öppen källkod.
DOC-rapporten som utarbetats av dess avdelning National Telecommunications and Information Administration (NTIA), omfattar "öppenhet inom artificiell intelligens (AI) samtidigt som den kräver aktiv övervakning av risker i kraftfulla AI-modeller".
Argumenten mot att öppet släppa modeller pekar i allmänhet på riskerna med dubbla användningsområden, dvs. att dåliga aktörer kan anpassa modellerna efter sina illvilliga avsikter. Policyn erkänner risken för dubbla användningsområden men säger att fördelarna uppväger riskerna.
"Biden-Harris-administrationen drar i alla spakar för att maximera löftet om AI och samtidigt minimera dess risker", säger USA:s handelsminister Gina Raimondo.
"Dagens rapport ger en färdplan för ansvarsfull AI-innovation och amerikanskt ledarskap genom att omfamna öppenhet och rekommendera hur den amerikanska regeringen kan förbereda sig för och anpassa sig till potentiella utmaningar framöver."
Enligt rapporten bör den amerikanska regeringen aktivt övervaka potentiella nya risker men avstå från att begränsa tillgången till modeller med öppen vikt.
Öppna vikter öppna dörrar
Vem som helst kan ladda ner Metas senaste Llama 3.1 405B modell och dess vikter. Även om träningsdata inte har gjorts tillgängliga, ger vikterna användarna mycket fler alternativ än de skulle ha med GPT-4o eller Claude 3,5 Sonett till exempel.
Genom att få tillgång till vikterna kan forskare och utvecklare få en bättre bild av vad som händer under huven och identifiera och korrigera förvrängningar, fel eller oväntade beteenden i modellen.
Det gör det också mycket enklare för användarna att finjustera modellerna för specifika användningsfall, både bra och dåliga.
Rapporten konstaterar att "tillgängligheten som öppna vikter ger sänker avsevärt inträdeshindret för att finjustera modeller för både fördelaktiga och skadliga syften. Aktörer i onda avsikter kan ta bort skyddsåtgärder från öppna modeller genom finjustering och sedan fritt distribuera modellen, vilket i slutändan begränsar värdet av begränsningstekniker."
Bland de risker och fördelar med öppna AI-modeller som lyfts fram i rapporten finns
- Allmän säkerhet
- Geopolitiska överväganden
- Samhällsfrågor
- Konkurrens, innovation och forskning
Rapporten är uppriktig när den erkänner riskerna inom vart och ett av dessa områden, men säger att fördelarna uppväger dessa om riskerna hanteras.
Med en sluten modell som GPT-4o måste vi alla lita på att OpenAI gör ett bra jobb med sina anpassningsinsatser och inte döljer potentiella risker. Med en öppen viktmodell kan alla forskare identifiera säkerhets- och trygghetsbrister i en modell eller utföra en tredjepartsrevision för att säkerställa att modellen överensstämmer med reglerna.
Rapporten säger att "tillgången till modellvikter kan göra det möjligt för länder som ger anledning till oro att utveckla mer robusta avancerade AI-ekosystem ... och undergräva målen för Amerikanska chipskontroller."
På pluskontot står dock att tillgängliggöra modellvikter "skulle kunna stärka samarbetet med allierade och fördjupa nya relationer med utvecklingspartner".
Den amerikanska regeringen är helt klart positivt inställd till öppna AI-modeller, även om den inför federala och delstatliga regleringar för att minska riskerna med tekniken. Om den Trump-Vance vinner nästa val kommer vi sannolikt att få se fortsatt stöd för öppen AI, men med ännu mindre reglering.
Öppna viktmodeller må vara bra för innovation, men om nya risker gör tillsynsmyndigheterna oförberedda kommer det inte att gå att stoppa tillbaka AI-andan i flaskan.