Nogle af de mest fremtrædende navne inden for Big Tech er gået sammen om at grundlægge Coalition for Secure AI (CoSAI).
Der findes endnu ikke en global standard for sikker AI-udviklingspraksis, og de nuværende AI-sikkerhedsforanstaltninger er fragmenterede og holdes ofte internt af de virksomheder, der skaber AI-modeller.
CoSAI er et open source-initiativ, der drives af det globale standardiseringsorgan OASIS, og som har til formål at standardisere og dele bedste praksis i forbindelse med sikker udvikling og implementering af AI.
Hvem er hvem af Big Tech-virksomheder, der støtter initiativet, herunder Google, IBM, Intel, Microsoft, NVIDIA og PayPal. Andre grundlæggende sponsorer omfatter Amazon, Anthropic, Cisco, Chainguard, Cohere, GenLab, OpenAI og Wiz.
Især Apple og Meta er fraværende.
CoSAI har til formål at udvikle og dele omfattende sikkerhedsforanstaltninger, der imødegår risici, herunder:
- stjæler modellen
- dataforgiftning af træningsdataene
- indsprøjtning af ondsindede input gennem prompt injection
- Skaleret forebyggelse af misbrug
- Angreb med udledning af medlemskab
- modelinversionsangreb eller gradientinversionsangreb for at udlede privat information
- udtrækning af fortrolige oplysninger fra træningsdata
CoSAI's charter siger, at "projektet ikke forestiller sig, at følgende emner er omfattet: misinformation, hallucinationer, hadefuldt eller krænkende indhold, fordomme, generering af malware, generering af phishing-indhold eller andre emner inden for området indholdssikkerhed."
Google har allerede sin Google Secure AI Framework (SAIF), og OpenAI har sin Belejret tilpasningsprojekt. Men indtil CoSAI har der ikke været et forum til at kombinere de best practices for AI-sikkerhed, som branchens aktører har udviklet uafhængigt af hinanden.
Vi har set små startups som Mistral oplever meteoriske stigninger med de AI-modeller, de producerer, men mange af disse mindre virksomheder har ikke ressourcerne til at finansiere AI-sikkerhedsteams.
CoSAI bliver en værdifuld, gratis kilde til bedste praksis inden for AI-sikkerhed for små og store aktører i branchen.
Heather Adkins, Vice President og Cybersecurity Resilience Officer hos Google, sagde: "Vi har brugt AI i mange år og ser det fortsatte potentiale for forsvarere, men anerkender også dets muligheder for modstandere.
"CoSAI vil hjælpe organisationer, store som små, med at integrere AI på en sikker og ansvarlig måde - og hjælpe dem med at udnytte fordelene, samtidig med at de mindsker risiciene."
Nick Hamilton, Head of Governance, Risk and Compliance hos OpenAI, siger: "At udvikle og implementere AI-teknologier, der er sikre og pålidelige, er centralt for OpenAI's mission.
"Vi mener, at udvikling af robuste standarder og praksisser er afgørende for at sikre en sikker og ansvarlig brug af AI, og vi er forpligtet til at samarbejde på tværs af branchen for at gøre det.
"Gennem vores deltagelse i CoSAI vil vi bidrage med vores ekspertise og ressourcer til at skabe et sikkert AI-økosystem til gavn for alle."
Lad os håbe, at folk kan lide Ilya Sutskever og andre, der rejste OpenAI på grund af sikkerhedsproblemer frivilligt deres input til CoSAI.