Storbritannia sikrer tilgang til modeller fra OpenAI, DeepMind og Anthropic

14. juni 2023

AI UK Sunak

London, Storbritannia - Statsminister Rishi Sunak sa i forrige uke på London Tech Week at OpenAI, Google DeepMind og Anthropic har lovet å gi "tidlig eller prioritert tilgang" til sine AI-modeller. 

Hensikten er å bidra til forskning innen kunstig intelligens med fokus på vurdering og sikkerhet. Denne erklæringen følger etter Den britiske regjeringens plan å innkalle til et verdensomspennende AI-sikkerhetsmøte.

Statsminister Sunak uttrykte sin forpliktelse til forskning på AI-sikkerhet og sa: "Vi skal drive banebrytende [AI] sikkerhetsforskning her i Storbritannia." Vi investerer mer penger i AI-sikkerhet enn noen annen regjering, inkludert 100 millioner pund til ekspertgruppen vår." 

Han fortsatte med å forklare: "Vi samarbeider med de fremste laboratoriene - Google DeepMind, OpenAI og Anthropic. Og jeg er glad for å kunne si at de har gått med på å gi oss tidlig eller prioritert tilgang til modeller av forsknings- og sikkerhetshensyn for å hjelpe oss med å konstruere bedre evalueringer og forstå potensialet og farene ved disse systemene."

Statsminister Sunak trakk en kobling til COP-klimakonferansene for å fremme Storbritannia som et verdensomspennende senter for regulering av AI-sikkerhet. "På samme måte som vi forener oss gjennom COP for å takle klimaendringene, vil Storbritannia være vertskap for det aller første toppmøtet om global AI-sikkerhet senere i år", sa han om det forestående møtet. "Jeg har som mål å gjøre Storbritannia ikke bare til det intellektuelle, men også til det geografiske hjemstedet for den verdensomspennende reguleringen av AI-sikkerhet."

Den nåværende vektleggingen av KI-sikkerhet gjenspeiler et betydelig holdningsskifte hos myndighetene. Tidligere favoriserte den britiske regjeringen en innovasjonsvennlig holdning og fleksible prinsipper for styring av kunstig intelligens, og avviste behovet for tekniske forskrifter eller overvåkingsorganer.

Men med økende bekymring for mulige farer ved og kontroll over kunstig intelligens, har Downing Street raskt revurdert planen.

Selv om AI-selskapenes løfte om å gi økt tilgang til modellene sine gir Storbritannia en mulighet til å lede an i arbeidet med gjennomgang og revisjon av AI, er det en fare for at bransjen får innflytelse over landets sikkerhetstiltak for AI. 

AI-giganter kan være i stand til å forme fremtidige AI-regler som gjelder deres egne virksomheter, ved å forme debatten rundt forskning på AI-sikkerhet og påvirke prioriteringen av problemstillinger.

For å sikre pålitelige og grundige resultater må den britiske regjeringens AI-sikkerhetsprogrammer inkludere uavhengige forskere, sivilsamfunnsorganisasjoner og personer som er mest utsatt for skader som følge av automatisering.

Etikere har understreket behovet for å ta opp faktiske urettferdigheter som AI-teknologien skaper i den virkelige verden, inkludert fordommer, diskriminering, krenkelse av privatlivets fred, brudd på immaterielle rettigheter og miljøutnyttelse.

Når Storbritannia går videre med sin agenda for KI-sikkerhet, vil det være avgjørende å kombinere bransjedeltakelse med uavhengig tilsyn for å utvikle et ansvarlig og inkluderende økosystem for KI som beskytter mot mulige farer og samtidig maksimerer fordelene ved kunstig intelligens.

Bli med i fremtiden


ABONNER I DAG

Tydelig, kortfattet og omfattende. Få et grep om AI-utviklingen med DagligAI

Jay Parmar

Jay er teknisk skribent og utdannet informatiker. Han har lenge vært en AI- og ML-entusiast og skriver for ulike plattformer som HashDork og TutorialsPoint. Når han ikke er på jobb, forenkler Jay teknologi og frilanser.

×

GRATIS PDF EKSKLUSIV
Hold deg i forkant med DailyAI

Meld deg på vårt ukentlige nyhetsbrev og få eksklusiv tilgang til DailyAIs nyeste e-bok: "Mastering AI Tools: Din 2024-guide til økt produktivitet".

*Ved å abonnere på vårt nyhetsbrev aksepterer du vår Retningslinjer for personvern og vår Vilkår og betingelser