Londen, Verenigd Koninkrijk - Minister-president Rishi Sunak zei vorige week op de London Tech Week dat OpenAI, Google DeepMind en Anthropic hebben beloofd om "vroegtijdige of prioritaire toegang" te verlenen tot hun AI-modellen.
Deze stap is bedoeld om onderzoek op het gebied van kunstmatige intelligentie gericht op beoordeling en veiligheid te ondersteunen. Deze verklaring volgt op de Het plan van de Britse overheid om een wereldwijde bijeenkomst over AI-veiligheid te organiseren.
Minister-president Sunak zei over zijn betrokkenheid bij AI-veiligheidsonderzoek: "We gaan hier in het Verenigd Koninkrijk baanbrekend veiligheidsonderzoek [AI] doen. We investeren meer geld in AI-veiligheid dan welke andere regering dan ook, inclusief 100 miljoen pond voor ons taakteam van deskundigen."
Hij legde verder uit: "We werken samen met de grenslaboratoria - Google DeepMind, OpenAI en Anthropic. En ik ben blij om te kunnen zeggen dat ze ermee hebben ingestemd om vroegtijdige of prioritaire toegang te verlenen tot modellen voor onderzoeks- en veiligheidsdoeleinden om ons te helpen betere evaluaties te maken en de mogelijkheden en gevaren van deze systemen te begrijpen."
Minister-president Sunak legde een link met de COP Klimaatconferenties om het Verenigd Koninkrijk te promoten als wereldwijd centrum voor AI-veiligheidsregulering. "Net zoals we ons via de COP verenigen om de klimaatverandering aan te pakken, zo zal het Verenigd Koninkrijk later dit jaar gastheer zijn van de allereerste top over wereldwijde AI-veiligheid", zei hij over de aanstaande bijeenkomst. "Ik streef ernaar dat het Verenigd Koninkrijk niet alleen de intellectuele maar ook de geografische thuisbasis wordt van wereldwijde regelgeving op het gebied van AI-veiligheid."
Deze huidige nadruk op AI-veiligheid weerspiegelt een substantiële mentaliteitsverandering bij de overheid. In het verleden was de Britse regering voorstander van een pro-innovatieve houding en flexibele principes voor AI-governance, waarbij ze de noodzaak van technische regels of toezichthoudende instanties afwees.
Met de groeiende bezorgdheid over de mogelijke gevaren en controle van AI heeft Downing Street zijn plan echter snel heroverwogen.
Hoewel de belofte van AI-bedrijven om betere toegang te geven tot hun modellen het Verenigd Koninkrijk de kans biedt om voorop te lopen op het gebied van AI-beoordelingen en controlebenaderingen, bestaat het gevaar dat de industrie invloed uitoefent op de AI-veiligheidsmaatregelen van het land.
AI-giganten zouden vorm kunnen geven aan toekomstige AI-regels die betrekking hebben op hun eigen bedrijven door het debat rond AI-veiligheidsonderzoek te beïnvloeden en de prioriteitstelling te beïnvloeden.
Om ervoor te zorgen dat er betrouwbare en rigoureuze resultaten worden gegenereerd, moeten onafhankelijke onderzoekers, maatschappelijke organisaties en mensen die het grootste risico lopen op schade door automatisering worden betrokken bij de AI-veiligheidsprogramma's van de Britse overheid.
Ethici hebben de noodzaak benadrukt van het aanpakken van werkelijke onrechtvaardigheden die door AI-technologie worden gecreëerd, zoals vooroordelen, discriminatie, schending van privacy, schending van intellectueel eigendom en uitbuiting van het milieu.
Als het Verenigd Koninkrijk vooruitgang boekt met zijn AI-veiligheidsagenda, zal het combineren van deelname door de industrie met onafhankelijk toezicht van cruciaal belang zijn voor de ontwikkeling van een verantwoordelijk en inclusief AI-ecosysteem dat bescherming biedt tegen mogelijke gevaren en tegelijkertijd de voordelen van kunstmatige intelligentie maximaliseert.