Storbritannien förhandlar med stora teknikföretag, däribland OpenAI och DeepMind, i syfte att få djupare insikt i säkerheten hos deras AI-teknik.
Storbritannien förbereder sig inför den globala Toppmöte om AI-säkerhethar regeringen uttryckt sin önskan att undersöka AI-modeller och se in i den "svarta lådan". Källor med insyn i förhandlingarna avslöjar att representanter aktivt söker tillstånd för att få undersöka avancerade AI-modellers inre funktioner.
Stora AI-utvecklare är notoriskt försiktiga med att dela med sig av sådan information - kan de oavsiktligt avslöja konfidentiella produktdetaljer eller bevis på upphovsrättsskyddade utbildningsdata?
Den brittiska regeringen hävdar att förståelse för hur avancerade AI-modeller fungerar kommer att göra det möjligt för myndigheter att i förebyggande syfte upptäcka faror, men de har inte förklarat exakt vad de vill veta. Det finns också många AI-modeller med öppen källkod som fungerar på samma sätt som proprietära AI som ChatGPT.
I USA har flera ledande AI-utvecklare anmält sig till ett frivilligt ramverk som skulle innebära att deras modeller testas oberoende innan de släpps - något som redan sker i Kina.
Tidigare i juni ingicks ett preliminärt avtal där DeepMind, OpenAI och Anthropic samtyckte till att ge den brittiska regeringen tillgång till modeller för forskning och säkerhetsutvärderingar. Detaljerna för denna tillgång är dock fortfarande odefinierade.
I ett uttalande nämnde Anthropic att man undersöker möjligheten att leverera modellen via ett API (Application Programming Interface) för att balansera båda parters intressen.
Medan ett API ger en begränsad inblick i modellens verksamhet, lobbar den brittiska regeringen för en "mer djupgående" förståelse, enligt insiders som informerar om Financial Times.
DeepMind-insiders höll med om att det skulle vara användbart att få tillgång till modeller för säkerhetsforskning, men OpenAI har inte kommenterat.
En källa nära regeringen förklarade: "Dessa företag är inte obstruktiva, men det är i allmänhet en knepig fråga och de har rimliga farhågor", "Det finns ingen knapp som dessa företag bara kan trycka på för att få det att hända. Det här är öppna och olösta forskningsfrågor."
Storbritanniens AI Safety Summit i början av november är ett direkt svar på kraven på striktare AI-reglering. En rad olika intressenter förväntas delta, bland annat kinesiska tjänstemän.
Enligt insiders arbetar den brittiska regeringen med att färdigställa ett avtal som kommer att presenteras vid toppmötet.