AI-bransjen bør lære av atomsikkerhet, mener eksperter

6. juni 2023
atomsikkerhet

Utviklingen av kunstig intelligens har gått raskt, noe som betyr at reguleringen må ta igjen forspranget, og at styringen har kommet litt i bakgrunnen.

Det finnes få formelle prosesser for å sikre KI-sikkerhet, og forskerne mener at det er opp til bransjen å endre på dette.

Mange ledere og personer i bransjen har sammenlignet kunstig intelligens med kjernekraft. Det er mange likheter - KI vokser raskt, den utgjør en potensielt eksistensiell risiko, og den kompliseres av utenrikspolitiske forhold, denne gangen mellom de fremvoksende KI-supermaktene USA og Kina.

Det tok flere tiår før atomingeniørene overbeviste det vitenskapelige miljøet om sikkerheten ved atomreaktorer. De første reaktorene ble bygget på slutten av 40- og begynnelsen av 50-tallet, og det var først med den amerikanske atomenergiloven av 1954 at det ble innført en viss grad av regulering. 

Amerikanske myndigheter var klar over risikoen ved kjernekraft, men Sovjetunionen satte sin første sivile reaktor i drift i midten av 1954, så de kastet ikke bort tiden med å bygge sin egen. I 1955 sa kommissær Willard F. Libby: "Vår store fare er at denne store fordelen for menneskeheten vil bli drept i fødselen av unødvendige reguleringer."

Er det noe her som høres kjent ut? Det var bare i forrige måned at OpenAI-sjef Sam Altman oppfordret til å opprette et internasjonalt organ for AI-sikkerhet som Det internasjonale atomenergibyrået (IAEA), som ble grunnlagt i 1957. I likhet med kjernekraft er gnger over hele verden jobber med å finne ut hvordan de kan bevare fordelene med kunstig intelligens og samtidig regulere risikoen. 

IAEA var en selvstendig del av FN og har i dag 174 medlemsland. Etter 1957 var det relativt få atomkatastrofer frem til Tsjernobyl.

AI bør lære av historien om atomsikkerhet

Heidy Khlaaf, teknisk direktør i cybersikkerhetskonsulentselskapet Spor av biter, som brukes til å vurdere og verifisere sikkerheten ved kjernekraftverk. Hun fortalte nylig til MIT at kjernekraftverk krever tusenvis av dokumenter som sertifiserer sikkerheten, og som går i dybden på de minste nyansene ved hver enkelt komponent. 

Etter Tsjernobyl ble reguleringen av kjernekraft ekstremt streng. Planlegging, lisensiering og bygging av en atomreaktor kan ta ti år eller mer, blant annet fordi prosessen overvåkes så strengt i alle ledd. Khlaaf påpeker at dette ikke har noe med profitt å gjøre - atomsikkerhet er et resultat av en reell eksistensiell risiko. 

AI-selskaper rapporterer derimot modellene sine ved hjelp av enkle "kort" som i hovedsak lister opp funksjoner. 

I tillegg er modellens indre arbeid ofte en "svart boks", noe som betyr at beslutningsprosessene i stor grad er lukket for eksterne observatører. 

Selv ChatGPT er, i motsetning til OpenAIs navnebror, en svart boks, og AI-selskaper har allerede etablert et rykte for å være hemmeligholdte om modellene og treningsdataene sine. 

Tenk deg at atomreaktorer var en "svart boks", og at utviklerne ikke ville fortelle offentligheten hvordan de fungerer? 

Analyse av AI-risiko må være systematisk 

For å redusere risikoen AI-ledere som Altman innrømmer, må selskapene gå dypere med sporbarhetsstrategiene sine. Dette innebærer streng overvåking helt fra starten av AI-utviklingsprosessen. 

Khlaaf sier: "Du må ha en systematisk måte å gå gjennom risikoene på. Det er ikke et scenario der du bare sier: "Å, dette kan skje. La meg bare skrive det ned." 

Det finnes i dag ingen etablert prosess for risikovurdering av KI, men det har vært gjort noen forsøk på å lage en. 

For eksempel, DeepMind publiserte nylig en teknisk blogg i samarbeid med flere universiteter, og spesifiserer at modellene bør evalueres for "ekstrem risiko" før opplæring. Artikkelen legger frem to strategier:

  1. Evaluerer omfanget av en modells "farlige evner" som kan brukes til å true sikkerheten, utøve innflytelse eller unndra seg menneskelig overvåking.
  2. Vurdere hvor stor risiko det er for at en modell kan forårsake skade, f.eks. om den risikerer å ikke oppføre seg som tiltenkt. 

Toby Shevlane, en av forskerne i prosjektet, sier: "Ledende AI-selskaper som flytter grenser, har et ansvar for å være oppmerksomme på nye problemer og oppdage dem tidlig, slik at vi kan ta tak i dem så raskt som mulig."

Hvis AI skal lære av atomsikkerhet, er det avgjørende med tidlig regulering, men langsiktig selvtilfredshet er dødelig. Ingen vet hvordan en AI-versjon av Tsjernobyl eller Fukushima ville sett ut, og ingen ønsker å finne det ut.

Bli med i fremtiden


ABONNER I DAG

Tydelig, kortfattet og omfattende. Få et grep om AI-utviklingen med DagligAI

Sam Jeans

Sam er en vitenskaps- og teknologiskribent som har jobbet i ulike oppstartsbedrifter innen kunstig intelligens. Når han ikke skriver, leser han medisinske tidsskrifter eller graver seg gjennom esker med vinylplater.

×
 
 

GRATIS PDF EKSKLUSIV
Hold deg i forkant med DailyAI


 

Meld deg på vårt ukentlige nyhetsbrev og få eksklusiv tilgang til DailyAIs nyeste e-bok: "Mastering AI Tools: Din 2024-guide til økt produktivitet".



 
 

*Ved å abonnere på vårt nyhetsbrev aksepterer du vår Retningslinjer for personvern og vår Vilkår og betingelser