London, Storbritannien - Premiärminister Rishi Sunak sa förra veckan på London Tech Week att OpenAI, Google DeepMind och Anthropic har lovat att ge "tidig eller prioriterad tillgång" till sina AI-modeller.
Avsikten är att stödja forskning inom artificiell intelligens med inriktning på bedömning och säkerhet. Denna förklaring följer på Den brittiska regeringens plan att sammankalla ett världsomspännande möte om AI-säkerhet.
Premiärminister Sunak uttryckte sitt engagemang för AI-säkerhetsforskning och sa: "Vi kommer att göra banbrytande [AI] säkerhetsforskning här i Storbritannien." Vi investerar mer pengar i AI-säkerhet än någon annan regering, inklusive 100 miljoner pund för vår expertgrupp.
Han fortsatte med att förklara: "Vi samarbetar med gränslaboratorierna - Google DeepMind, OpenAI och Anthropic. Och jag är glad att kunna säga att de har gått med på att ge tidig eller prioriterad tillgång till modeller av forsknings- och säkerhetsskäl för att hjälpa oss att göra bättre utvärderingar och förstå potentialen och farorna med dessa system."
Premiärminister Sunak drog en koppling till COP:s klimatkonferenser för att främja Storbritannien som ett världsomspännande centrum för reglering av AI-säkerhet. "Precis som vi enas genom COP för att ta itu med klimatförändringarna, så kommer Storbritannien att vara värd för det första toppmötet någonsin om global AI-säkerhet senare i år", sa han om det kommande mötet. "Mitt mål är att Storbritannien inte bara ska bli det intellektuella utan också det geografiska hemlandet för den globala regleringen av AI-säkerhet."
Den nuvarande betoningen på AI-säkerhet återspeglar en betydande attitydförändring hos regeringen. Tidigare förespråkade den brittiska regeringen en innovationsvänlig hållning och flexibla principer för AI-styrning, och avfärdade behovet av tekniska föreskrifter eller övervakningsorgan.
Men med den växande oron för eventuella faror och kontroll av AI har Downing Street snabbt omvärderat sin plan.
Samtidigt som AI-företagens löfte om att ge ökad tillgång till sina modeller ger Storbritannien en chans att leda utvecklingen av metoder för granskning och revision av AI, finns det en risk för att industrin får inflytande över landets säkerhetsåtgärder för AI.
AI-jättar skulle kunna forma framtida AI-regler som rör deras egna företag genom att forma debatten kring AI-säkerhetsforskning och påverka prioriteringen av frågor.
För att säkerställa att tillförlitliga och rigorösa resultat genereras måste den brittiska regeringens AI-säkerhetsprogram inkludera oberoende forskare, civilsamhällesorganisationer och personer som löper störst risk att skadas av automatisering.
Etiker har betonat behovet av att ta itu med faktiska orättvisor i den verkliga världen som AI-tekniken skapar, inklusive fördomar, diskriminering, intrång i privatlivet, kränkning av immateriella rättigheter och miljöexploatering.
När Storbritannien går vidare med sin agenda för AI-säkerhet kommer det att vara avgörande att kombinera branschdeltagande med oberoende tillsyn för att utveckla ett ansvarsfullt och inkluderande AI-ekosystem som skyddar mot eventuella faror och samtidigt maximerar fördelarna med artificiell intelligens.