Den britiske regering vil se ind i AI's 'sorte boks'

29. september 2023

Topmøde om AI-sikkerhed

Storbritannien forhandler med store teknologivirksomheder, herunder OpenAI og DeepMind, med det formål at få dybere indsigt i sikkerheden ved deres AI-teknologier. 

Mens Storbritannien gør sig klar til den globale Topmøde om AI-sikkerhedRegeringen har udtrykt ønske om at undersøge AI-modeller og se ind i den "sorte boks". Kilder med indsigt i forhandlingerne afslører, at repræsentanterne aktivt søger tilladelse til at dykke ned i de avancerede AI-modellers indre funktioner.

Store AI-udviklere er notorisk forsigtige med at dele sådanne oplysninger - kan de utilsigtet komme til at afsløre fortrolige produktoplysninger eller beviser på copyright-træningsdata?

Den britiske regering hævder, at en forståelse af, hvordan avancerede AI-modeller fungerer, vil gøre det muligt for myndighederne at spotte farer i forvejen, men de har ikke forklaret præcist, hvad de ønsker at vide. Der er også mange open source AI-modeller, der fungerer på samme måde som proprietære AI'er som ChatGPT. 

I USA har flere førende AI-udviklere tilmeldt sig en frivillige rammer der ville indebære, at deres modeller blev testet uafhængigt inden udgivelsen - noget, der allerede sker i Kina.

Tidligere i juni indgik DeepMind, OpenAI og Anthropic en foreløbig aftale om at give den britiske regering adgang til modeller med henblik på forskning og sikkerhedsevalueringer. Men detaljerne i denne adgang er stadig ikke defineret. 

I en udtalelse nævner Anthropic, at man undersøger muligheden for at levere modellen via en API (Application Programming Interface) for at afbalancere begge parters bekymringer.

Mens en API giver et begrænset indblik i modellens operationer, lobbyer den britiske regering for en 'mere dybtgående' forståelse, ifølge insidere, der informerer om Financial Times

DeepMind-insidere var enige om, at det ville være nyttigt at få adgang til modeller til sikkerhedsforskning, men OpenAI har ikke kommenteret det.

En kilde tæt på regeringen forklarede: "Disse virksomheder er ikke obstruktive, men det er generelt et vanskeligt spørgsmål, og de har rimelige bekymringer," "Der er ingen knap, som disse virksomheder bare kan trykke på for at få det til at ske. Det er åbne og uafklarede forskningsspørgsmål." 

Storbritanniens AI Safety Summit i begyndelsen af november er en direkte reaktion på opfordringer til strengere AI-regulering. En lang række interessenter forventes at deltage, bl.a. kinesiske embedsmænd. 

Ifølge insidere arbejder den britiske regering på at færdiggøre en aftale, som vil blive præsenteret på topmødet.

Deltag i fremtiden


TILMELD DIG I DAG

Klar, kortfattet, omfattende. Få styr på AI-udviklingen med DailyAI

Sam Jeans

Sam er videnskabs- og teknologiforfatter og har arbejdet i forskellige AI-startups. Når han ikke skriver, kan han finde på at læse medicinske tidsskrifter eller grave i kasser med vinylplader.

×

GRATIS PDF EKSKLUSIVT
Vær på forkant med DailyAI

Tilmeld dig vores ugentlige nyhedsbrev og få eksklusiv adgang til DailyAI's seneste e-bog: 'Mastering AI Tools: Din 2024-guide til forbedret produktivitet'.

*Ved at tilmelde dig vores nyhedsbrev accepterer du vores Politik for beskyttelse af personlige oplysninger og vores Vilkår og betingelser