Debatten om AI-sikkerhet er fortsatt et hett tema, men bransjen har ikke en endelig definisjon av hva "trygg" AI er, eller en målestokk for å sammenligne hvor sikre ulike modeller er.
MLCommons har samlet en rekke selskaper i sine ulike arbeidsgrupper for å bli den ledende organisasjonen for AI-benchmarking.
Når vi sammenligner en produsents GPU-inferensytelse med en annen eller lager en LLM-toppliste, kan vi gjøre det fordi vi har referanseverdier. Referanseverdier som MLPerf og standardiserte tester gjør det mulig for oss å si: "Denne er bedre enn den."
Men når det gjelder AI-sikkerhet, har vi egentlig ingen bransjestandard som gjør at vi kan si: "Denne LLM-en er tryggere enn den andre."
Med opprettelsen av AI Safety Working Group (AIS) ønsker MLCommons å utvikle et sett med referanseverdier for AI-sikkerhet for å gjøre dette mulig.
Noen få selskaper og organisasjoner har allerede gjort en del arbeid på dette området. Googles guardrails for generativ AI og RealToxicityPrompts fra University of Washington er gode eksempler.
Men disse referansetestene baserer seg på en spesifikk liste med spørsmål og forteller deg egentlig bare hvor sikker modellen er basert på dette settet med testspørsmål.
Disse testene bruker vanligvis også åpne datasett for spørsmål og svar. LLM-ene som testes, kan også ha blitt trent på disse datasettene, slik at testresultatene kan bli skjeve.
Stanford University's Center for Research on Foundation Models gjorde et banebrytende arbeid med utviklingen av sin Helhetlig evaluering av språkmodeller (HELM). HELM bruker et bredt spekter av parametere og scenarier for å teste LLM-sikkerhet på en mer helhetlig måte.
AIS vil bygge videre på HELM-rammeverket for å utvikle egne sikkerhetsreferanser for store språkmodeller. AIS inviterer også bransjen til å delta.
I kunngjøringen fra MLCommons heter det: "Vi forventer at flere selskaper vil eksternalisere AI-sikkerhetstester de har brukt internt for egne formål, og dele dem åpent med MLCommons-fellesskapet, noe som vil bidra til å øke innovasjonstakten."
De store navnene som utgjør AIS Working Group, inkluderer Anthropic, Coactive AI, Google, Inflection, Intel, Meta, Microsoft, NVIDIA, OpenAI, Qualcomm Technologies samt AI-akademikere.
Når AI-industrien kan enes om en sikkerhetsreferanse, vil den gjøre tiltak som Toppmøte om AI-sikkerhet mer produktive.
Myndighetene kan også kreve at AI-selskapene oppnår en bestemt poengsum på en referanseindeks før de tillater at modellene deres lanseres.
Ledertavler er også gode markedsføringsverktøy, så hvis man har en bransjeakseptert resultattavle for sikkerhet, er det mer sannsynlig at budsjettet vil gå til AI-sikkerhet.