Den britiske regjeringen ønsker å se inn i AIs "svarte boks

29. september 2023

Toppmøte om AI-sikkerhet

Storbritannia forhandler med store teknologiselskaper, deriblant OpenAI og DeepMind, med sikte på å få dypere innsikt i sikkerheten til AI-teknologiene deres. 

Mens Storbritannia forbereder seg til den globale Toppmøte om AI-sikkerhethar regjeringen uttrykt ønske om å undersøke AI-modeller og se inn i den "svarte boksen". Kilder med innsyn i forhandlingene avslører at representanter aktivt søker om tillatelse til å se nærmere på hvordan avanserte AI-modeller fungerer.

Store AI-utviklere er notorisk forsiktige med å dele slik informasjon - kan de utilsiktet avsløre konfidensielle produktdetaljer eller bevis på opphavsrettslig beskyttet treningsdata?

Den britiske regjeringen argumenterer for at en forståelse av hvordan avanserte AI-modeller fungerer, vil gjøre det mulig for myndighetene å oppdage farer i forkant, men de har ikke forklart nøyaktig hva de ønsker å vite. Det finnes også mange AI-modeller med åpen kildekode som fungerer på samme måte som proprietære AI-er som ChatGPT. 

I USA har flere ledende AI-utviklere meldt seg på en frivillig rammeverk som innebærer at modellene deres testes uavhengig før lansering - noe som allerede skjer i Kina.

Tidligere i juni inngikk DeepMind, OpenAI og Anthropic en foreløpig avtale om å gi britiske myndigheter tilgang til modeller for forskning og sikkerhetsevalueringer. De nærmere detaljene for denne tilgangen er imidlertid fortsatt udefinert. 

I en uttalelse nevnte Anthropic muligheten for å levere modellen via et API (Application Programming Interface) for å balansere hensynet til begge parter.

Mens et API gir et begrenset innblikk i modellens operasjoner, presser den britiske regjeringen på for å få en "dypere" forståelse, ifølge innsidere som informerer Financial Times

DeepMind-innsidere var enige i at det ville være nyttig å få tilgang til modeller for sikkerhetsforskning, men OpenAI har ikke kommentert dette.

En kilde som står regjeringen nær, forklarer: "Disse selskapene er ikke obstruktive, men det er generelt et vanskelig spørsmål, og de har rimelige bekymringer." "Det er ingen knapp disse selskapene bare kan trykke på for å få det til å skje. Dette er åpne og uløste forskningsspørsmål." 

Storbritannias AI Safety Summit i begynnelsen av november er et direkte svar på oppfordringene om strengere AI-regulering. En rekke interessenter forventes å delta, deriblant kinesiske myndigheter. 

Ifølge innsidere jobber den britiske regjeringen med å ferdigstille en avtale som vil bli presentert på toppmøtet.

Bli med i fremtiden


ABONNER I DAG

Tydelig, kortfattet og omfattende. Få et grep om AI-utviklingen med DagligAI

Sam Jeans

Sam er en vitenskaps- og teknologiskribent som har jobbet i ulike oppstartsbedrifter innen kunstig intelligens. Når han ikke skriver, leser han medisinske tidsskrifter eller graver seg gjennom esker med vinylplater.

×

GRATIS PDF EKSKLUSIV
Hold deg i forkant med DailyAI

Meld deg på vårt ukentlige nyhetsbrev og få eksklusiv tilgang til DailyAIs nyeste e-bok: "Mastering AI Tools: Din 2024-guide til økt produktivitet".

*Ved å abonnere på vårt nyhetsbrev aksepterer du vår Retningslinjer for personvern og vår Vilkår og betingelser