Noen av de mest fremtredende navnene innen Big Tech har gått sammen om å grunnlegge Coalition for Secure AI (CoSAI).
Det finnes ennå ingen global standard for sikker praksis for utvikling av kunstig intelligens, og dagens sikkerhetstiltak for kunstig intelligens er fragmenterte og holdes ofte internt av selskapene som utvikler AI-modeller.
CoSAI er et åpen kildekode-initiativ i regi av det globale standardiseringsorganet OASIS, som har som mål å standardisere og dele beste praksis knyttet til sikker utvikling og bruk av kunstig intelligens.
Blant de store teknologiselskapene som støtter initiativet, finner vi Google, IBM, Intel, Microsoft, NVIDIA og PayPal. Andre grunnleggelsessponsorer inkluderer Amazon, Anthropic, Cisco, Chainguard, Cohere, GenLab, OpenAI og Wiz.
Spesielt fraværende er Apple og Meta.
CoSAI har som mål å utvikle og dele omfattende sikkerhetstiltak som håndterer risikoer, inkludert
- stjeler modellen
- dataforgiftning av treningsdataene
- injisering av ondsinnede inndata gjennom prompt injection
- forebygging av overgrep
- Angrep med utledning av medlemskap
- modellinversjonsangrep eller gradientinversjonsangrep for å utlede privat informasjon
- trekke ut konfidensiell informasjon fra treningsdataene
CoSAIs charter sier at "prosjektet ikke ser for seg at følgende temaer skal omfattes: feilinformasjon, hallusinasjoner, hatefullt eller krenkende innhold, fordommer, generering av skadelig programvare, generering av phishing-innhold eller andre temaer innen innholdssikkerhet."
Google har allerede sitt Google Secure AI Framework (SAIF), og OpenAI har sitt beleiret linjeføringsprosjekt. Men frem til CoSAI har det ikke eksistert noe forum for å kombinere beste praksis for AI-sikkerhet som aktørene i bransjen har utviklet uavhengig av hverandre.
Vi har sett små oppstartsbedrifter som Mistral opplever en kometkarriere med AI-modellene de produserer, men mange av disse mindre selskapene har ikke ressurser til å finansiere AI-sikkerhetsteam.
CoSAI vil være en verdifull, gratis kilde til beste praksis for AI-sikkerhet for små og store aktører i bransjen.
Heather Adkins, Vice President og Cybersecurity Resilience Officer i Google, sier: "Vi har brukt kunstig intelligens i mange år og ser det pågående potensialet for forsvarere, men erkjenner også mulighetene for motstandere.
"CoSAI vil hjelpe både store og små organisasjoner med å integrere AI på en sikker og ansvarlig måte, slik at de kan dra nytte av fordelene og samtidig redusere risikoen."
Nick Hamilton, leder for Governance, Risk and Compliance i OpenAI, sier: "Å utvikle og ta i bruk AI-teknologier som er sikre og pålitelige, er en sentral del av OpenAIs oppdrag.
"Vi mener at det er avgjørende å utvikle robuste standarder og praksiser for å sikre trygg og ansvarlig bruk av kunstig intelligens, og vi er forpliktet til å samarbeide på tvers av bransjen for å gjøre dette.
"Gjennom vår deltakelse i CoSAI ønsker vi å bidra med vår ekspertise og våre ressurser for å skape et sikkert økosystem for kunstig intelligens som kommer alle til gode."
La oss håpe at folk liker Ilja Sutskever og andre som forlot OpenAI på grunn av sikkerhetshensyn frivillig bidra med innspill til CoSAI.