Teknologiselskaper over hele verden forplikter seg til et nytt sett med frivillige regler

21. mai 2024

  • 16 internasjonale teknologiselskaper implementerte et nytt rammeverk for sikkerhet
  • Dette kommer samtidig som fremtredende forskere advarer mot AIs potensielle "ekstreme risikoer"
  • På AI Safety Summit i Seoul etablerte ti nasjoner et AI-sikkerhetsnettverk
AI-sikkerhet

Ledende AI-selskaper har blitt enige om et nytt sett med frivillige sikkerhetsforpliktelser, kunngjort av britiske og sørkoreanske myndigheter før et to dager langt AI-toppmøte i Seoul.

16 teknologiselskaper valgte å delta i rammeverket, inkludert AmazonGoogle, Meta, Microsoft, OpenAI, xAI og Zhipu AI.

Det er det første rammeverket som selskaper i Nord-Amerika, Europa, Midtøsten (The Technology Innovation Institute) og Asia, inkludert Kina (Zhipu AI), har blitt enige om. 

Blant annet forplikter selskapene seg til "ikke å utvikle eller ta i bruk en modell i det hele tatt" hvis alvorlige risikoer ikke kan håndteres.

Selskapene har også blitt enige om å offentliggjøre hvordan de vil måle og redusere risikoen forbundet med AI-modeller.

Den nye forpliktelser kommer etter at fremtredende AI-forskere, inkludert Yoshua Bengio, Geoffrey Hinton, Andrew Yao og Yuval Noah Harari, publiserte en papir i vitenskap som heter Håndtering av ekstreme KI-risikoer i en tid med rask utvikling.

Dokumentet inneholdt flere anbefalinger som bidro til å styre det nye sikkerhetsrammeverket:

  • Tilsyn og ærlighet: Utvikle metoder for å sikre at AI-systemer er transparente og gir pålitelige resultater.
  • Robusthet: Sikre at AI-systemer oppfører seg forutsigbart i nye situasjoner.
  • Tolkbarhet og åpenhet: Forstå AI-beslutningsprosesser.
  • Inkluderende AI-utvikling: Å redusere fordommer og integrere ulike verdier.
  • Evaluering for farlige handlinger: Utvikle strenge metoder for å vurdere AI-kapasiteter og forutsi risikoer før utrulling.
  • Evaluering av AI-tilpasning: Sikre at AI-systemer er i tråd med tiltenkte mål og ikke forfølger skadelige mål.
  • Risikovurderinger: Omfattende vurdering av samfunnsrisikoen forbundet med bruk av kunstig intelligens.
  • Motstandsdyktighet: Skape forsvar mot AI-aktiverte trusler som cyberangrep og sosial manipulasjon.

Anna Makanju, visepresident for globale anliggender i OpenAI"Feltet AI-sikkerhet er i rask utvikling, og vi er spesielt glade for å støtte forpliktelsenes vektlegging av å forbedre tilnærmingene parallelt med vitenskapen. Vi er fortsatt forpliktet til å samarbeide med andre forskningslaboratorier, selskaper og myndigheter for å sikre at kunstig intelligens er trygg og kommer hele menneskeheten til gode."

Michael Sellitto, leder for Global Affairs i Anthropic"Frontier AIs sikkerhetsforpliktelser understreker viktigheten av sikker og ansvarlig utvikling av frontier-modeller. Som en sikkerhetsfokusert organisasjon har vi prioritert å implementere strenge retningslinjer, gjennomføre omfattende red teaming og samarbeide med eksterne eksperter for å sørge for at modellene våre er trygge. Disse forpliktelsene er et viktig skritt fremover for å fremme ansvarlig utvikling og bruk av kunstig intelligens."

Et annet frivillig rammeverk

Dette gjenspeiler de "frivillige forpliktelsene" som ble inngått på Det hvite hus i juli i fjor av Amazon, Anthropic, Google, Inflection AI, Meta, Microsoft og OpenAI for å fremme en trygg, sikker og åpen utvikling av KI-teknologi. 

De nye reglene innebærer at de 16 selskapene skal "sørge for åpenhet" om sikkerhetstiltakene sine, med unntak av tilfeller der dette kan øke risikoen eller avsløre sensitiv kommersiell informasjon som ikke står i forhold til samfunnsnytten.

Storbritannias statsminister Rishi Sunak sa: "Det er første gang i verden at så mange ledende AI-selskaper fra så mange forskjellige deler av verden går sammen om de samme forpliktelsene om AI-sikkerhet." 

Det er en verdensnyhet, fordi selskaper utenfor Europa og Nord-Amerika, som for eksempel Kinas Zhipu.ai, ble med. 

Frivillige forpliktelser til AI-sikkerhet har imidlertid vært på moten en stund.

Det er liten risiko for at AI-selskaper går med på dem, ettersom det ikke finnes noen måte å håndheve dem på. Det indikerer også hvor sløvt et instrument de er når det virkelig gjelder. 

Dan Hendrycks, sikkerhetsrådgiver for Elon Musks oppstartsbedrift xAI, bemerket at de frivillige forpliktelsene ville bidra til å "legge grunnlaget for konkret nasjonal regulering".

Det er en rimelig kommentar, men ifølge noen ledende forskere har vi ennå ikke "lagt grunnlaget" når ekstreme risikoer banker på døren. 

Ikke alle er enige om hvor farlig kunstig intelligens egentlig erMen poenget er at holdningene bak disse rammeverkene ennå ikke stemmer overens med handlingene. 

Nasjoner danner AI-sikkerhetsnettverk

I forbindelse med dette mindre toppmøtet om KI-sikkerhet i Seoul i Sør-Korea ble ti nasjoner og EU enige om å etablere et internasjonalt nettverk av offentlig støttede "KI-sikkerhetsinstitutter".

"Intensjonserklæring fra Seoul om internasjonalt samarbeid om AI-sikkerhetsforskning"Avtalen omfatter land som Storbritannia, USA, Australia, Canada, Frankrike, Tyskland, Italia, Japan, Sør-Korea, Singapore og EU. 

Kina var ikke med i avtalen. Den kinesiske regjeringen deltok imidlertid, og det kinesiske firmaet Zhipu.ai sluttet seg til rammeverket som er beskrevet ovenfor. 

Kina har tidligere uttrykt vilje til å samarbeide om AI-sikkerhet og har vært i "hemmelige" samtaler med US.

Dette mindre midlertidig toppmøte ble arrangert med mindre fanfare enn den første, som fant sted i Bletchley Park i Storbritannia i november i fjor. 

Flere kjente teknologifigurer ble imidlertid med, inkludert Elon Musk, tidligere Google-sjef Eric Schmidt og DeepMind grunnlegger Sir Demis Hassabis.

Flere forpliktelser og diskusjoner vil bli kjent i løpet av de kommende dagene.

Bli med i fremtiden


ABONNER I DAG

Tydelig, kortfattet og omfattende. Få et grep om AI-utviklingen med DagligAI

Sam Jeans

Sam er en vitenskaps- og teknologiskribent som har jobbet i ulike oppstartsbedrifter innen kunstig intelligens. Når han ikke skriver, leser han medisinske tidsskrifter eller graver seg gjennom esker med vinylplater.

×

GRATIS PDF EKSKLUSIV
Hold deg i forkant med DailyAI

Meld deg på vårt ukentlige nyhetsbrev og få eksklusiv tilgang til DailyAIs nyeste e-bok: "Mastering AI Tools: Din 2024-guide til økt produktivitet".

*Ved å abonnere på vårt nyhetsbrev aksepterer du vår Retningslinjer for personvern og vår Vilkår og betingelser