Førende AI-virksomheder er gået med til et nyt sæt frivillige sikkerhedsforpligtelser, som den britiske og den sydkoreanske regering har annonceret før et todages AI-topmøde i Seoul.
16 teknologivirksomheder valgte at deltage i rammen, herunder AmazonGoogle, Meta, Microsoft, OpenAI, xAI og Zhipu AI.
Det er den første ramme, som virksomheder i Nordamerika, Europa, Mellemøsten (The Technology Innovation Institute) og Asien, herunder Kina (Zhipu AI), er blevet enige om.
Virksomhederne forpligter sig blandt andet til "slet ikke at udvikle eller implementere en model", hvis alvorlige risici ikke kan håndteres.
Virksomhederne blev også enige om at offentliggøre, hvordan de vil måle og afbøde risici i forbindelse med AI-modeller.
Den nye forpligtelser kommer efter, at fremtrædende AI-forskere, herunder Yoshua Bengio, Geoffrey Hinton, Andrew Yao og Yuval Noah Harari, udgav en papir i Videnskab navngivet Håndtering af ekstreme AI-risici midt i den hurtige udvikling.
Dette dokument indeholdt flere anbefalinger, som var med til at styre de nye sikkerhedsrammer:
- Overblik og ærlighed: Udvikling af metoder til at sikre, at AI-systemer er gennemsigtige og producerer pålidelige resultater.
- Robusthed: At sikre, at AI-systemer opfører sig forudsigeligt i nye situationer.
- Fortolkningsmuligheder og gennemsigtighed: Forståelse af AI-beslutningsprocesser.
- Inkluderende AI-udvikling: At mindske fordomme og integrere forskellige værdier.
- Evaluering af farlige handlinger: Udvikling af strenge metoder til at vurdere AI-kapaciteter og forudsige risici før udrulning.
- Evaluering af AI-tilpasning: Sikring af, at AI-systemer er i overensstemmelse med de tilsigtede mål og ikke forfølger skadelige mål.
- Risikovurderinger: Omfattende vurdering af samfundsmæssige risici i forbindelse med udbredelse af AI.
- Modstandskraft: Skabe forsvar mod AI-aktiverede trusler som cyberangreb og social manipulation.
Anna Makanju, vicepræsident for globale anliggender hos OpenAIom de nye anbefalinger: "Området for AI-sikkerhed udvikler sig hurtigt, og vi er især glade for at støtte forpligtelsernes vægt på at forfine tilgange sammen med videnskaben. Vi er fortsat forpligtet til at samarbejde med andre forskningslaboratorier, virksomheder og regeringer for at sikre, at AI er sikker og til gavn for hele menneskeheden."
Michael Sellitto, chef for globale anliggender hos Anthropic"Frontier AI's sikkerhedsforpligtelser understreger vigtigheden af sikker og ansvarlig udvikling af frontier-modeller. Som en sikkerhedsfokuseret organisation har vi gjort det til en prioritet at implementere strenge politikker, gennemføre omfattende red teaming og samarbejde med eksterne eksperter for at sikre, at vores modeller er sikre. Disse forpligtelser er et vigtigt skridt fremad for at fremme ansvarlig udvikling og anvendelse af kunstig intelligens."
En anden frivillig ramme
Dette afspejler de "frivillige forpligtelser", der blev indgået på Det Hvide Hus i juli sidste år af Amazon, Anthropic, Google, Inflection AI, Meta, Microsoft og OpenAI for at fremme en tryg, sikker og gennemsigtig udvikling af AI-teknologi.
De nye regler siger, at de 16 virksomheder skal "sørge for offentlig gennemsigtighed" i deres sikkerhedsimplementeringer, undtagen hvor det kan øge risikoen eller afsløre følsomme kommercielle oplysninger, som ikke står i forhold til de samfundsmæssige fordele.
Storbritanniens premierminister Rishi Sunak sagde: "Det er en verdensnyhed, at så mange førende AI-virksomheder fra så mange forskellige dele af verden alle er enige om de samme forpligtelser i forhold til AI-sikkerhed."
Det er en verdensnyhed, fordi firmaer uden for Europa og Nordamerika, som f.eks. Zhipu.ai, sluttede sig til den.
Frivillige forpligtelser til AI-sikkerhed har dog været på mode i et stykke tid.
Der er ikke megen risiko for, at AI-virksomheder går med til dem, da der ikke er nogen måde at håndhæve dem på. Det viser også, hvor sløvt et instrument de er, når det kommer til stykket.
Dan Hendrycks, sikkerhedsrådgiver for Elon Musks startup xAI, bemærkede, at de frivillige forpligtelser ville hjælpe med at "lægge grundlaget for konkret national regulering".
En fair kommentar, men ifølge nogle førende forskere har vi endnu ikke "lagt fundamentet", når ekstreme risici banker på døren.
Ikke alle er enige om hvor farlig AI egentlig ermen pointen er stadig, at stemningen bag disse rammer endnu ikke stemmer overens med handlinger.
Nationer danner AI-sikkerhedsnetværk
Mens dette mindre topmøde om AI-sikkerhed går i gang i Seoul i Sydkorea, er ti lande og EU blevet enige om at etablere et internationalt netværk af offentligt støttede "AI-sikkerhedsinstitutter".
Den "Hensigtserklæring fra Seoul om internationalt samarbejde om AI-sikkerhedsvidenskab"Aftalen omfatter lande som Storbritannien, USA, Australien, Canada, Frankrig, Tyskland, Italien, Japan, Sydkorea, Singapore og EU.
Det er bemærkelsesværdigt, at Kina ikke var med i aftalen. Men den kinesiske regering deltog, og det kinesiske firma Zhipu.ai skrev under på de rammer, der er beskrevet ovenfor.
Kina har tidligere udtrykt vilje til at samarbejde om AI-sikkerhed og har været i 'hemmelige' samtaler med US.
Denne mindre midlertidigt topmøde kom med mindre fanfare end den første, der blev afholdt i Bletchley Park i Storbritannien i november sidste år.
Men flere kendte tech-personligheder sluttede sig til, herunder Elon Musk, tidligere Google CEO Eric Schmidt og DeepMind grundlægger Sir Demis Hassabis.
Flere forpligtelser og diskussioner vil komme frem i løbet af de kommende dage.