Storbritannien sikrer adgang til modeller fra OpenAI, DeepMind og Anthropic

14. juni 2023

AI UK Sunak

London, Storbritannien - Premierminister Rishi Sunak sagde i sidste uge på London Tech Week, at OpenAI, Google DeepMind og Anthropic har lovet at give "tidlig eller prioriteret adgang" til deres AI-modeller. 

Tiltaget har til hensigt at støtte forskning inden for kunstig intelligens med fokus på vurdering og sikkerhed. Denne erklæring følger efter Den britiske regerings plan at indkalde til et verdensomspændende møde om AI-sikkerhed.

Premierminister Sunak udtrykte sit engagement i AI-sikkerhedsforskning og sagde: "Vi vil lave banebrydende [AI] sikkerhedsforskning her i Storbritannien." Vi investerer flere penge i AI-sikkerhed end nogen anden regering, herunder 100 millioner pund til vores ekspertgruppe." 

Han fortsatte med at forklare: "Vi samarbejder med grænselaboratorierne - Google DeepMind, OpenAI og Anthropic. Og jeg er glad for at kunne sige, at de har indvilliget i at give tidlig eller prioriteret adgang til modeller af forsknings- og sikkerhedsmæssige årsager for at hjælpe os med at lave bedre evalueringer og forstå potentialet og farerne ved disse systemer."

Premierminister Sunak skabte en forbindelse til COP-klimakonferencerne for at fremme Storbritannien som et verdensomspændende center for AI-sikkerhedsregulering. "Ligesom vi forenes gennem COP for at tackle klimaforandringerne, vil Storbritannien være vært for det første topmøde nogensinde om global AI-sikkerhed senere på året," sagde han om det forestående møde. "Mit mål er at gøre Storbritannien til ikke bare det intellektuelle, men også det geografiske hjemsted for verdensomspændende AI-sikkerhedsregulering."

Den nuværende vægt på AI-sikkerhed afspejler et væsentligt holdningsskift hos regeringen. Tidligere gik den britiske regering ind for en innovationsvenlig holdning og fleksible principper for AI-styring og afviste behovet for tekniske regler eller overvågningsorganer.

Men med voksende bekymring for de mulige farer og kontrollen med AI har Downing Street hurtigt revurderet sin plan.

Mens AI-virksomhedernes løfte om at give bedre adgang til deres modeller giver Storbritannien mulighed for at være førende inden for AI-gennemgang og -revision, er der fare for, at industrien får indflydelse på landets AI-sikkerhedsforanstaltninger. 

AI-giganter kan være i stand til at forme fremtidige AI-regler, der vedrører deres egne virksomheder, ved at præge debatten om AI-sikkerhedsforskning og påvirke prioriteringen af emner.

For at sikre, at der skabes pålidelige og grundige resultater, skal den britiske regerings AI-sikkerhedsprogrammer omfatte uafhængige forskere, civilsamfundsorganisationer og mennesker, der er i størst risiko for at blive skadet af automatisering.

Etikere har understreget behovet for at tage fat på de faktiske uretfærdigheder i den virkelige verden, som AI-teknologien skaber, herunder fordomme, diskrimination, krænkelse af privatlivets fred, krænkelse af intellektuel ejendomsret og miljøudnyttelse.

Når Storbritannien går videre med sin dagsorden for AI-sikkerhed, vil det være afgørende at kombinere industriens deltagelse med uafhængigt tilsyn for at udvikle et ansvarligt og inkluderende AI-økosystem, der beskytter mod mulige farer og samtidig maksimerer fordelene ved kunstig intelligens.

Deltag i fremtiden


TILMELD DIG I DAG

Klar, kortfattet, omfattende. Få styr på AI-udviklingen med DailyAI

Jay Parmar

Jay er teknisk skribent og kandidat i datalogi. Han har længe været AI- og ML-entusiast og skriver for forskellige platforme som HashDork og TutorialsPoint. I fritiden forenkler Jay teknologi og arbejder som freelancer.

×

GRATIS PDF EKSKLUSIVT
Vær på forkant med DailyAI

Tilmeld dig vores ugentlige nyhedsbrev og få eksklusiv adgang til DailyAI's seneste e-bog: 'Mastering AI Tools: Din 2024-guide til forbedret produktivitet'.

*Ved at tilmelde dig vores nyhedsbrev accepterer du vores Politik for beskyttelse af personlige oplysninger og vores Vilkår og betingelser