Den brittiska regeringen vill se in i AI:s "svarta låda

29 september 2023

Toppmöte om AI-säkerhet

Storbritannien förhandlar med stora teknikföretag, däribland OpenAI och DeepMind, i syfte att få djupare insikt i säkerheten hos deras AI-teknik. 

Storbritannien förbereder sig inför den globala Toppmöte om AI-säkerhethar regeringen uttryckt sin önskan att undersöka AI-modeller och se in i den "svarta lådan". Källor med insyn i förhandlingarna avslöjar att representanter aktivt söker tillstånd för att få undersöka avancerade AI-modellers inre funktioner.

Stora AI-utvecklare är notoriskt försiktiga med att dela med sig av sådan information - kan de oavsiktligt avslöja konfidentiella produktdetaljer eller bevis på upphovsrättsskyddade utbildningsdata?

Den brittiska regeringen hävdar att förståelse för hur avancerade AI-modeller fungerar kommer att göra det möjligt för myndigheter att i förebyggande syfte upptäcka faror, men de har inte förklarat exakt vad de vill veta. Det finns också många AI-modeller med öppen källkod som fungerar på samma sätt som proprietära AI som ChatGPT. 

I USA har flera ledande AI-utvecklare anmält sig till ett frivilligt ramverk som skulle innebära att deras modeller testas oberoende innan de släpps - något som redan sker i Kina.

Tidigare i juni ingicks ett preliminärt avtal där DeepMind, OpenAI och Anthropic samtyckte till att ge den brittiska regeringen tillgång till modeller för forskning och säkerhetsutvärderingar. Detaljerna för denna tillgång är dock fortfarande odefinierade. 

I ett uttalande nämnde Anthropic att man undersöker möjligheten att leverera modellen via ett API (Application Programming Interface) för att balansera båda parters intressen.

Medan ett API ger en begränsad inblick i modellens verksamhet, lobbar den brittiska regeringen för en "mer djupgående" förståelse, enligt insiders som informerar om Financial Times

DeepMind-insiders höll med om att det skulle vara användbart att få tillgång till modeller för säkerhetsforskning, men OpenAI har inte kommenterat.

En källa nära regeringen förklarade: "Dessa företag är inte obstruktiva, men det är i allmänhet en knepig fråga och de har rimliga farhågor", "Det finns ingen knapp som dessa företag bara kan trycka på för att få det att hända. Det här är öppna och olösta forskningsfrågor." 

Storbritanniens AI Safety Summit i början av november är ett direkt svar på kraven på striktare AI-reglering. En rad olika intressenter förväntas delta, bland annat kinesiska tjänstemän. 

Enligt insiders arbetar den brittiska regeringen med att färdigställa ett avtal som kommer att presenteras vid toppmötet.

Bli en del av framtiden


PRENUMERERA IDAG

Tydlig, kortfattad och heltäckande. Få grepp om AI-utvecklingen med DagligaAI

Sam Jeans

Sam är en vetenskaps- och teknikskribent som har arbetat i olika AI-startups. När han inte skriver läser han medicinska tidskrifter eller gräver igenom lådor med vinylskivor.

×

GRATIS PDF EXKLUSIV
Ligg steget före med DailyAI

Registrera dig för vårt veckovisa nyhetsbrev och få exklusiv tillgång till DailyAI:s senaste e-bok: "Mastering AI Tools: Din 2024-guide till förbättrad produktivitet".

*Genom att prenumerera på vårt nyhetsbrev accepterar du vår Integritetspolicy och våra Villkor och anvisningar