De Britse overheid wil in de 'zwarte doos' van AI kijken

29 september 2023

AI-veiligheidstop

Het VK onderhandelt met grote techbedrijven, waaronder OpenAI en DeepMind, om meer inzicht te krijgen in de veiligheid van hun AI-technologieën. 

Terwijl het Verenigd Koninkrijk zich opmaakt voor de wereldwijde AI-veiligheidstopDe overheid heeft de wens geuit om AI-modellen te onderzoeken en in de 'zwarte doos' te kijken. Bronnen die bekend zijn met de onderhandelingen onthullen dat vertegenwoordigers actief op zoek zijn naar toestemming om in de innerlijke werking van geavanceerde AI-modellen te duiken.

Grote AI-ontwikkelaars zijn notoir terughoudend met het delen van dergelijke informatie - zouden ze onbedoeld vertrouwelijke productgegevens of bewijs van auteursrechtelijk beschermde trainingsgegevens kunnen vrijgeven?

De Britse overheid stelt dat inzicht in de werking van geavanceerde AI-modellen autoriteiten in staat zal stellen om preventief gevaren te herkennen, maar ze hebben niet uitgelegd wat ze precies willen weten. Er zijn veel open-source AI-modellen die op dezelfde manier werken als propriëtaire AI's zoals ChatGPT. 

In de VS hebben verschillende vooraanstaande AI-ontwikkelaars zich aangemeld voor een vrijwillig kader waarbij hun modellen onafhankelijk worden getest voordat ze worden uitgebracht - iets wat in China al gebeurt.

Eerder in juni stemden DeepMind, OpenAI en Anthropic er in een voorlopige overeenkomst mee in om modeltoegang te verlenen aan de Britse overheid voor onderzoek en veiligheidsbeoordelingen. De details van deze toegang zijn echter nog niet gedefinieerd. 

In een verklaring noemde Anthropic het onderzoeken van de mogelijkheid om het model via een API (Application Programming Interface) te leveren om de belangen van beide partijen in balans te brengen.

Terwijl een API een beperkte blik werpt op de werking van het model, lobbyt de Britse regering voor een 'diepgaander' inzicht, volgens ingewijden die de Financiële Times

DeepMind insiders waren het erover eens dat toegang tot modellen voor veiligheidsonderzoek nuttig zou zijn, maar OpenAI heeft geen commentaar gegeven.

Een bron dicht bij de overheid legde uit: "Deze bedrijven liggen niet dwars, maar het is over het algemeen een lastige kwestie en ze hebben redelijke zorgen," "Er is geen knop die deze bedrijven zomaar kunnen indrukken om het te laten gebeuren. Dit zijn open en onopgeloste onderzoeksvragen." 

De Britse AI Safety Summit begin november is een directe reactie op de roep om strengere AI-regulering. Naar verwachting zullen diverse belanghebbenden deelnemen, waaronder Chinese functionarissen. 

Volgens insiders werkt de Britse regering aan een overeenkomst die tijdens de top onthuld zal worden.

Doe mee met de toekomst


SCHRIJF JE VANDAAG NOG IN

Duidelijk, beknopt, uitgebreid. Krijg grip op AI-ontwikkelingen met DailyAI

Sam Jeans

Sam is een wetenschap- en technologieschrijver die bij verschillende AI-startups heeft gewerkt. Als hij niet aan het schrijven is, leest hij medische tijdschriften of graaft hij door dozen met vinylplaten.

×

GRATIS PDF EXCLUSIEF
Blijf voorop met DailyAI

Meld je aan voor onze wekelijkse nieuwsbrief en ontvang exclusieve toegang tot DailyAI's nieuwste eBook: 'Mastering AI Tools: Your 2024 Guide to Enhanced Productivity'.

* Door u aan te melden voor onze nieuwsbrief accepteert u onze Privacybeleid en onze Algemene voorwaarden