Ledande AI-företag har gått med på en ny uppsättning frivilliga säkerhetsåtaganden, som tillkännagavs av de brittiska och sydkoreanska regeringarna före ett tvådagars AI-toppmöte i Seoul.
16 teknikföretag har anslutit sig till ramverket, däribland Amazon, Google, Meta, Microsoft, OpenAI, xAI och Zhipu AI.
Det är det första ramverket som företag i Nordamerika, Europa, Mellanöstern (The Technology Innovation Institute) och Asien, inklusive Kina (Zhipu AI), har enats om.
Bland annat åtar sig företagen att "inte utveckla eller driftsätta en modell överhuvudtaget" om allvarliga risker inte kan hanteras.
Företagen har också gått med på att offentliggöra hur de ska mäta och minska riskerna med AI-modeller.
Den nya åtaganden kommer efter att framstående AI-forskare, inklusive Yoshua Bengio, Geoffrey Hinton, Andrew Yao och Yuval Noah Harari, publicerade en papper i Vetenskap heter Hantering av extrema AI-risker i en tid av snabb utveckling.
I detta dokument gavs flera rekommendationer som bidrog till att vägleda den nya säkerhetsramen:
- Tillsyn och ärlighet: Utveckla metoder för att säkerställa att AI-system är transparenta och ger tillförlitliga resultat.
- Robusthet: Säkerställa att AI-system beter sig förutsägbart i nya situationer.
- Tolkningsbarhet och transparens: Förstå AI:s beslutsprocesser.
- Inkluderande AI-utveckling: Minska fördomar och integrera olika värderingar.
- Utvärdering av farliga åtgärder: Utveckla rigorösa metoder för att bedöma AI-kapacitet och förutsäga risker före utplacering.
- Utvärdering av AI-anpassning: Säkerställa att AI-system är i linje med avsedda mål och inte strävar efter skadliga mål.
- Riskbedömningar: Omfattande bedömning av de samhällsrisker som är förknippade med användningen av AI.
- Motståndskraft: Skapa försvar mot AI-aktiverade hot som cyberattacker och social manipulation.
Anna Makanju, vice vd för globala frågor på OpenAI"Området AI-säkerhet utvecklas snabbt, och vi är särskilt glada över att stödja åtagandenas betoning på att förfina tillvägagångssätten tillsammans med vetenskapen. Vi är fortsatt engagerade i att samarbeta med andra forskningslaboratorier, företag och regeringar för att säkerställa att AI är säkert och gynnar hela mänskligheten."
Michael Sellitto, chef för globala frågor på Anthropic"Frontier AI:s säkerhetsåtaganden understryker vikten av en säker och ansvarsfull utveckling av frontiermodeller. Som en säkerhetsfokuserad organisation har vi gjort det till en prioritet att implementera rigorösa policyer, genomföra omfattande red teaming och samarbeta med externa experter för att se till att våra modeller är säkra. Dessa åtaganden är ett viktigt steg framåt för att uppmuntra till ansvarsfull utveckling och användning av AI."
Ett annat frivilligt ramverk
Detta speglar de "frivilliga åtaganden" som gjordes vid Vita huset i juli förra året av Amazon, Anthropic, Google, Inflection AI, Meta, Microsoft, och OpenAI att främja en trygg, säker och transparent utveckling av AI-teknik.
De nya reglerna innebär att de 16 bolagen ska "tillhandahålla offentlig insyn" i sina säkerhetsimplementeringar, utom i de fall då detta kan öka riskerna eller avslöja känslig kommersiell information som inte står i proportion till samhällsnyttan.
Storbritanniens premiärminister Rishi Sunak sa: "Det är världsunikt att så många ledande AI-företag från så många olika delar av världen alla går med på samma åtaganden om AI-säkerhet."
Det är en världsnyhet eftersom företag utanför Europa och Nordamerika, såsom Kinas Zhipu.ai, gick med i det.
Frivilliga åtaganden för AI-säkerhet har dock varit på modet ett tag.
Risken är liten att AI-företagen går med på dem, eftersom det inte finns några medel för att genomdriva dem. Det visar också hur trubbigt ett instrument de är när det verkligen gäller.
Dan Hendrycks, säkerhetsrådgivare för Elon Musks startup xAI, konstaterade att de frivilliga åtagandena skulle bidra till att "lägga grunden för konkreta inhemska regleringar".
Det är en rimlig kommentar, men enligt vissa ledande forskare har vi ännu inte "lagt grunden" när extrema risker knackar på dörren.
Alla är inte överens om hur farlig AI egentligen ärmen poängen kvarstår att känslan bakom dessa ramverk ännu inte stämmer överens med handlingarna.
Nationer bildar nätverk för AI-säkerhet
Samtidigt som detta mindre toppmöte om AI-säkerhet pågår i Seoul i Sydkorea har tio länder och Europeiska unionen (EU) enats om att inrätta ett internationellt nätverk av offentligt stödda "AI Safety Institutes".
Den "Avsiktsförklaring från Seoul om internationellt samarbete inom AI-säkerhetsvetenskap"Avtalet omfattar länder som Storbritannien, USA, Australien, Kanada, Frankrike, Tyskland, Italien, Japan, Sydkorea, Singapore och EU.
Kina var anmärkningsvärt frånvarande i avtalet. Den kinesiska regeringen deltog dock och det kinesiska företaget Zhipu.ai skrev under på det ramverk som beskrivs ovan.
Kina har tidigare uttryckt en vilja att samarbeta kring AI-säkerhet och har varit i "hemliga" förhandlingar med US.
Detta mindre interimstoppmöte kom med mindre fanfar än den första, som hölls i brittiska Bletchley Park i november förra året.
Flera välkända teknikprofiler anslöt sig dock, däribland Elon Musk, Googles tidigare VD Eric Schmidt och DeepMind grundare Sir Demis Hassabis.
Fler åtaganden och diskussioner kommer att offentliggöras under de kommande dagarna.