MLCommons och Big Tech ska utveckla riktmärken för AI-säkerhet

29 oktober 2023

Debatten om AI-säkerhet fortsätter att vara ett hett ämne, men branschen har inte någon definitiv definition av vad "säker" AI är, eller något riktmärke för att jämföra hur säkra olika modeller är.

MLCommons har samlat en rad företag i sina olika arbetsgrupper för att bli den ledande organisationen för AI-benchmarking.

När vi jämför en tillverkares GPU-inferensprestanda med en annan eller fyller i en LLM-ledartavla kan vi göra det eftersom vi har riktmärken. Benchmarks som MLPerf och standardiserade tester gör det möjligt för oss att säga "Den här är bättre än den där."

Men när det gäller AI-säkerhet har vi inte riktigt något branschstandardiserat riktmärke som gör att vi kan säga: "Den här LLM:n är säkrare än den andra."

Med bildandet av arbetsgruppen för AI-säkerhet (AIS) vill MLCommons utveckla en uppsättning riktmärken för AI-säkerhet för att göra detta möjligt.

Några företag och organisationer har redan gjort en del arbete i detta utrymme. Googles guardrails för generativ AI och University of Washingtons RealToxicityPrompts är bra exempel.

Men dessa benchmarkingtester bygger på att man matar in en specifik lista med uppmaningar och berättar egentligen bara hur säker modellen är baserat på den uppsättningen testuppmaningar.

Dessa tester använder också vanligtvis öppna dataset för uppmaningar och svar. De LLM:er som testas kan mycket väl ha utbildats på dessa dataset också, så testresultaten kan vara snedvridna.

Stanford University's Center for Research on Foundation Models gjorde ett banbrytande arbete med utvecklingen av sin Holistisk utvärdering av språkmodeller (HELM). HELM använder ett brett spektrum av mätvärden och scenarier för att testa LLM-säkerheten på ett mer holistiskt sätt.

AIS kommer att bygga vidare på HELM-ramverket för att utveckla sina säkerhetsriktmärken för stora språkmodeller. AIS inbjuder också till ett bredare deltagande från branschen.

I MLCommons meddelande står det: "Vi förväntar oss att flera företag kommer att externalisera AI-säkerhetstester som de har använt internt för egna syften och dela dem öppet med MLCommons community, vilket kommer att bidra till att påskynda innovationstakten."

De stora namnen som ingår i AIS Working Group är Anthropic, Coactive AI, Google, Inflection, Intel, Meta, Microsoft, NVIDIA, OpenAI, Qualcomm Technologies samt akademiker inom AI.

När AI-industrin kan enas om ett säkerhetsriktmärke kommer den att göra insatser som Toppmöte om AI-säkerhet mer produktiva.

Dessutom skulle statliga tillsynsmyndigheter kunna kräva att AI-företagen uppnår en viss poäng på ett benchmark innan de tillåter att deras modeller släpps.

Ledartavlor är också bra marknadsföringsverktyg, så om man har ett branschaccepterat scorecard för säkerhet är det mer troligt att man styr teknikbudgeten mot AI-säkerhet.

Bli en del av framtiden


PRENUMERERA IDAG

Tydlig, kortfattad och heltäckande. Få grepp om AI-utvecklingen med DagligaAI

Eugene van der Watt

Eugene kommer från en bakgrund som elektronikingenjör och älskar allt som har med teknik att göra. När han tar en paus från att konsumera AI-nyheter hittar du honom vid snookerbordet.

×

GRATIS PDF EXKLUSIV
Ligg steget före med DailyAI

Registrera dig för vårt veckovisa nyhetsbrev och få exklusiv tillgång till DailyAI:s senaste e-bok: "Mastering AI Tools: Din 2024-guide till förbättrad produktivitet".

*Genom att prenumerera på vårt nyhetsbrev accepterar du vår Integritetspolicy och våra Villkor och anvisningar