London, Storbritannia - Statsminister Rishi Sunak sa i forrige uke på London Tech Week at OpenAI, Google DeepMind og Anthropic har lovet å gi "tidlig eller prioritert tilgang" til sine AI-modeller.
Hensikten er å bidra til forskning innen kunstig intelligens med fokus på vurdering og sikkerhet. Denne erklæringen følger etter Den britiske regjeringens plan å innkalle til et verdensomspennende AI-sikkerhetsmøte.
Statsminister Sunak uttrykte sin forpliktelse til forskning på AI-sikkerhet og sa: "Vi skal drive banebrytende [AI] sikkerhetsforskning her i Storbritannia." Vi investerer mer penger i AI-sikkerhet enn noen annen regjering, inkludert 100 millioner pund til ekspertgruppen vår."
Han fortsatte med å forklare: "Vi samarbeider med de fremste laboratoriene - Google DeepMind, OpenAI og Anthropic. Og jeg er glad for å kunne si at de har gått med på å gi oss tidlig eller prioritert tilgang til modeller av forsknings- og sikkerhetshensyn for å hjelpe oss med å konstruere bedre evalueringer og forstå potensialet og farene ved disse systemene."
Statsminister Sunak trakk en kobling til COP-klimakonferansene for å fremme Storbritannia som et verdensomspennende senter for regulering av AI-sikkerhet. "På samme måte som vi forener oss gjennom COP for å takle klimaendringene, vil Storbritannia være vertskap for det aller første toppmøtet om global AI-sikkerhet senere i år", sa han om det forestående møtet. "Jeg har som mål å gjøre Storbritannia ikke bare til det intellektuelle, men også til det geografiske hjemstedet for den verdensomspennende reguleringen av AI-sikkerhet."
Den nåværende vektleggingen av KI-sikkerhet gjenspeiler et betydelig holdningsskifte hos myndighetene. Tidligere favoriserte den britiske regjeringen en innovasjonsvennlig holdning og fleksible prinsipper for styring av kunstig intelligens, og avviste behovet for tekniske forskrifter eller overvåkingsorganer.
Men med økende bekymring for mulige farer ved og kontroll over kunstig intelligens, har Downing Street raskt revurdert planen.
Selv om AI-selskapenes løfte om å gi økt tilgang til modellene sine gir Storbritannia en mulighet til å lede an i arbeidet med gjennomgang og revisjon av AI, er det en fare for at bransjen får innflytelse over landets sikkerhetstiltak for AI.
AI-giganter kan være i stand til å forme fremtidige AI-regler som gjelder deres egne virksomheter, ved å forme debatten rundt forskning på AI-sikkerhet og påvirke prioriteringen av problemstillinger.
For å sikre pålitelige og grundige resultater må den britiske regjeringens AI-sikkerhetsprogrammer inkludere uavhengige forskere, sivilsamfunnsorganisasjoner og personer som er mest utsatt for skader som følge av automatisering.
Etikere har understreket behovet for å ta opp faktiske urettferdigheter som AI-teknologien skaper i den virkelige verden, inkludert fordommer, diskriminering, krenkelse av privatlivets fred, brudd på immaterielle rettigheter og miljøutnyttelse.
Når Storbritannia går videre med sin agenda for KI-sikkerhet, vil det være avgjørende å kombinere bransjedeltakelse med uavhengig tilsyn for å utvikle et ansvarlig og inkluderende økosystem for KI som beskytter mot mulige farer og samtidig maksimerer fordelene ved kunstig intelligens.