Big Tech AI-namn ansluter sig till Coalition for Secure AI (CoSAI)

19 juli 2024

  • De största Big Tech-företagen gick samman för att grunda Coalition for Secure AI (CoSAI)
  • CoSAI kommer att dela med sig av metoder med öppen källkod, standardiserade ramverk och verktyg för säker AI-utveckling
  • De nuvarande åtgärderna för att skydda AI och AI-applikationer och -tjänster är fragmenterade

Några av de mest framträdande namnen inom Big Tech har gått samman för att grunda Coalition for Secure AI (CoSAI).

Det finns ännu ingen global standard för säkra metoder för AI-utveckling, och de nuvarande säkerhetsåtgärderna för AI är fragmenterade och hanteras ofta internt av de företag som skapar AI-modeller.

CoSAI är ett initiativ med öppen källkod som drivs av det globala standardiseringsorganet OASIS och som syftar till att standardisera och dela med sig av bästa praxis för säker utveckling och driftsättning av AI.

Bland de stora teknikföretagen som stöder initiativet finns Google, IBM, Intel, Microsoft, NVIDIA och PayPal. Ytterligare grundande sponsorer inkluderar Amazon, Anthropic, Cisco, Chainguard, Cohere, GenLab, OpenAI och Wiz.

Noterbart frånvarande är Apple och Meta.

CoSAI syftar till att utveckla och dela omfattande säkerhetsåtgärder som hanterar risker, inklusive:

  • stjäla modellen
  • dataförgiftning av träningsdata
  • injicering av skadliga indata genom promptinjektion
  • förebyggande av missbruk
  • Attacker med inferens av medlemskap
  • modellinversionsattacker eller gradientinversionsattacker för att inferera privat information
  • utvinning av konfidentiell information från träningsdata

CoSAI:s stadga säger att "projektet inte tänker sig att följande ämnen ska omfattas: felaktig information, hallucinationer, hatiskt eller kränkande innehåll, fördomar, generering av skadlig kod, generering av phishinginnehåll eller andra ämnen inom området innehållssäkerhet."

Google har redan sitt Google Secure AI Framework (SAIF) och OpenAI har sitt belägrat linjeföringsprojekt. Fram till CoSAI har det dock inte funnits något forum för att kombinera de bästa metoderna för AI-säkerhet som branschaktörer har utvecklat oberoende av varandra.

Vi har sett små nystartade företag som Mistral upplevde en kometkarriär med de AI-modeller de producerade, men många av dessa mindre företag har inte resurser att finansiera AI-säkerhetsteam.

CoSAI kommer att vara en värdefull kostnadsfri källa till bästa praxis för AI-säkerhet för små och stora aktörer i branschen.

Heather Adkins, Vice President och Cybersecurity Resilience Officer på Google, sa: "Vi har använt AI i många år och ser den pågående potentialen för försvarare, men inser också dess möjligheter för motståndare.

"CoSAI kommer att hjälpa organisationer, stora som små, att integrera AI på ett säkert och ansvarsfullt sätt - så att de kan dra nytta av dess fördelar och samtidigt minska riskerna."

Nick Hamilton, Head of Governance, Risk, and Compliance på OpenAI, säger: "Att utveckla och distribuera AI-teknik som är säker och pålitlig är centralt för OpenAI:s uppdrag.

"Vi anser att det är viktigt att utveckla robusta standarder och metoder för att säkerställa en säker och ansvarsfull användning av AI, och vi är fast beslutna att samarbeta med hela branschen för att göra detta.

"Genom vårt deltagande i CoSAI vill vi bidra med vår expertis och våra resurser för att hjälpa till att skapa ett säkert AI-ekosystem som gynnar alla."

Låt oss hoppas att människor gillar Ilya Sutskever och andra som lämnade OpenAI på grund av säkerhetsproblem frivilligt lämna sina synpunkter till CoSAI.

Bli en del av framtiden


PRENUMERERA IDAG

Tydlig, kortfattad och heltäckande. Få grepp om AI-utvecklingen med DagligaAI

Eugene van der Watt

Eugene kommer från en bakgrund som elektronikingenjör och älskar allt som har med teknik att göra. När han tar en paus från att konsumera AI-nyheter hittar du honom vid snookerbordet.

×

GRATIS PDF EXKLUSIV
Ligg steget före med DailyAI

Registrera dig för vårt veckovisa nyhetsbrev och få exklusiv tillgång till DailyAI:s senaste e-bok: "Mastering AI Tools: Din 2024-guide till förbättrad produktivitet".

*Genom att prenumerera på vårt nyhetsbrev accepterar du vår Integritetspolicy och våra Villkor och anvisningar