Debatten om AI-säkerhet fortsätter att vara ett hett ämne, men branschen har inte någon definitiv definition av vad "säker" AI är, eller något riktmärke för att jämföra hur säkra olika modeller är.
MLCommons har samlat en rad företag i sina olika arbetsgrupper för att bli den ledande organisationen för AI-benchmarking.
När vi jämför en tillverkares GPU-inferensprestanda med en annan eller fyller i en LLM-ledartavla kan vi göra det eftersom vi har riktmärken. Benchmarks som MLPerf och standardiserade tester gör det möjligt för oss att säga "Den här är bättre än den där."
Men när det gäller AI-säkerhet har vi inte riktigt något branschstandardiserat riktmärke som gör att vi kan säga: "Den här LLM:n är säkrare än den andra."
Med bildandet av arbetsgruppen för AI-säkerhet (AIS) vill MLCommons utveckla en uppsättning riktmärken för AI-säkerhet för att göra detta möjligt.
Några företag och organisationer har redan gjort en del arbete i detta utrymme. Googles guardrails för generativ AI och University of Washingtons RealToxicityPrompts är bra exempel.
Men dessa benchmarkingtester bygger på att man matar in en specifik lista med uppmaningar och berättar egentligen bara hur säker modellen är baserat på den uppsättningen testuppmaningar.
Dessa tester använder också vanligtvis öppna dataset för uppmaningar och svar. De LLM:er som testas kan mycket väl ha utbildats på dessa dataset också, så testresultaten kan vara snedvridna.
Stanford University's Center for Research on Foundation Models gjorde ett banbrytande arbete med utvecklingen av sin Holistisk utvärdering av språkmodeller (HELM). HELM använder ett brett spektrum av mätvärden och scenarier för att testa LLM-säkerheten på ett mer holistiskt sätt.
AIS kommer att bygga vidare på HELM-ramverket för att utveckla sina säkerhetsriktmärken för stora språkmodeller. AIS inbjuder också till ett bredare deltagande från branschen.
I MLCommons meddelande står det: "Vi förväntar oss att flera företag kommer att externalisera AI-säkerhetstester som de har använt internt för egna syften och dela dem öppet med MLCommons community, vilket kommer att bidra till att påskynda innovationstakten."
De stora namnen som ingår i AIS Working Group är Anthropic, Coactive AI, Google, Inflection, Intel, Meta, Microsoft, NVIDIA, OpenAI, Qualcomm Technologies samt akademiker inom AI.
När AI-industrin kan enas om ett säkerhetsriktmärke kommer den att göra insatser som Toppmöte om AI-säkerhet mer produktiva.
Dessutom skulle statliga tillsynsmyndigheter kunna kräva att AI-företagen uppnår en viss poäng på ett benchmark innan de tillåter att deras modeller släpps.
Ledartavlor är också bra marknadsföringsverktyg, så om man har ett branschaccepterat scorecard för säkerhet är det mer troligt att man styr teknikbudgeten mot AI-säkerhet.