Storbritannia forhandler med store teknologiselskaper, deriblant OpenAI og DeepMind, med sikte på å få dypere innsikt i sikkerheten til AI-teknologiene deres.
Mens Storbritannia forbereder seg til den globale Toppmøte om AI-sikkerhethar regjeringen uttrykt ønske om å undersøke AI-modeller og se inn i den "svarte boksen". Kilder med innsyn i forhandlingene avslører at representanter aktivt søker om tillatelse til å se nærmere på hvordan avanserte AI-modeller fungerer.
Store AI-utviklere er notorisk forsiktige med å dele slik informasjon - kan de utilsiktet avsløre konfidensielle produktdetaljer eller bevis på opphavsrettslig beskyttet treningsdata?
Den britiske regjeringen argumenterer for at en forståelse av hvordan avanserte AI-modeller fungerer, vil gjøre det mulig for myndighetene å oppdage farer i forkant, men de har ikke forklart nøyaktig hva de ønsker å vite. Det finnes også mange AI-modeller med åpen kildekode som fungerer på samme måte som proprietære AI-er som ChatGPT.
I USA har flere ledende AI-utviklere meldt seg på en frivillig rammeverk som innebærer at modellene deres testes uavhengig før lansering - noe som allerede skjer i Kina.
Tidligere i juni inngikk DeepMind, OpenAI og Anthropic en foreløpig avtale om å gi britiske myndigheter tilgang til modeller for forskning og sikkerhetsevalueringer. De nærmere detaljene for denne tilgangen er imidlertid fortsatt udefinert.
I en uttalelse nevnte Anthropic muligheten for å levere modellen via et API (Application Programming Interface) for å balansere hensynet til begge parter.
Mens et API gir et begrenset innblikk i modellens operasjoner, presser den britiske regjeringen på for å få en "dypere" forståelse, ifølge innsidere som informerer Financial Times.
DeepMind-innsidere var enige i at det ville være nyttig å få tilgang til modeller for sikkerhetsforskning, men OpenAI har ikke kommentert dette.
En kilde som står regjeringen nær, forklarer: "Disse selskapene er ikke obstruktive, men det er generelt et vanskelig spørsmål, og de har rimelige bekymringer." "Det er ingen knapp disse selskapene bare kan trykke på for å få det til å skje. Dette er åpne og uløste forskningsspørsmål."
Storbritannias AI Safety Summit i begynnelsen av november er et direkte svar på oppfordringene om strengere AI-regulering. En rekke interessenter forventes å delta, deriblant kinesiske myndigheter.
Ifølge innsidere jobber den britiske regjeringen med å ferdigstille en avtale som vil bli presentert på toppmøtet.