Udviklingen af AI er gået hurtigt, hvilket betyder, at lovgivningen skal indhente det forsømte, og at styringen er noget af en eftertanke.
Der er kun få formelle processer til at sikre AI-sikkerhed, og forskerne siger, at det er op til industrien at ændre det.
Mange AI-ledere og personer i branchen har sammenlignet AI med atomenergi. Der er mange ligheder - AI vokser hurtigt, det udgør en potentielt eksistentiel risiko, og det kompliceres af udenrigspolitiske forhold, denne gang mellem de nye AI-supermagter USA og Kina.
Det tog årtier, før atomingeniører overbeviste det bredere videnskabelige samfund om atomreaktorers sikkerhed. De første reaktorer blev bygget i slutningen af 40'erne og begyndelsen af 50'erne, og det var først med den amerikanske atomenergilov fra 1954, at der kom et vist niveau af regulering.
Den amerikanske regering var klar over risikoen ved atomkraft, men Sovjetunionen satte deres første civile reaktor i drift i midten af 1954, så de spildte ikke tiden med at bygge deres egen. I 1955 sagde kommissær Willard F. Libby: "Vores store fare er, at denne store fordel for menneskeheden vil blive dræbt i fødslen af unødvendig regulering."
Er der noget her, der lyder bekendt? Det var først i sidste måned, at OpenAI's CEO Sam Altman opfordrede til et internationalt organ for AI-sikkerhed som Det Internationale Atomenergiagentur (IAEA), der blev grundlagt i 1957. Ligesom atomkraft er gnger over hele verden arbejder på at finde ud af, hvordan de kan bevare fordelene ved AI og samtidig regulere risiciene.
IAEA var en selvstændig del af FN og har nu 174 medlemslande. Efter 1957 var der relativt få atomkatastrofer indtil Tjernobyl.
AI bør lære af historien om nuklear sikkerhed
Heidy Khlaaf, en teknisk direktør hos cybersikkerhedskonsulentfirmaet Spor af bitssom bruges til at vurdere og verificere sikkerheden på atomkraftværker. Det fortalte hun for nylig til MIT at atomkraftværker kræver tusindvis af dokumenter, der certificerer deres sikkerhed og går i dybden med de mindste nuancer i hver enkelt komponent.
Efter Tjernobyl blev reguleringen af atomkraft ekstremt streng. Planlægning, godkendelse og bygning af en atomreaktor kan tage 10 år eller mere, blandt andet fordi processen overvåges så nøje ved hvert eneste punkt. Khlaaf bemærker, at det ikke har noget med profit at gøre - nuklear sikkerhed udspringer af en ægte eksistentiel risiko.
I modsætning hertil rapporterer AI-virksomheder deres modeller ved hjælp af enkle 'kort', der i bund og grund oplister funktioner.
Desuden er modellens indre arbejde ofte en "sort boks", hvilket betyder, at beslutningsprocesserne stort set er lukket af for eksterne observatører.
Selv ChatGPT er i modsætning til OpenAI's navnebror en sort boks, og AI-virksomheder har allerede etableret et ry for at være hemmelighedsfulde om deres modeller og træningsdata.
Forestil dig, at atomreaktorer var en 'sort boks', og at deres udviklere ikke ville fortælle offentligheden, hvordan de fungerer?
Analyse af AI-risici skal være systematisk
For at mindske de risici, som AI-ledere som Altman gerne indrømmer, skal virksomheder gå dybere med deres sporbarhedsstrategier. Det indebærer streng overvågning lige fra starten af AI-udviklingsprocessen.
Khlaaf siger: "Man er nødt til at have en systematisk måde at gennemgå risiciene på. Det er ikke et scenarie, hvor man bare siger: "Åh, det kunne ske. Lad mig bare skrive det ned."
I øjeblikket er der ingen etableret proces for AI-risikovurdering, men der har været nogle forsøg på at skabe en.
For eksempel, DeepMind udgav for nylig en teknisk blog i samarbejde med flere universiteter, der specificerer, at modeller skal evalueres for "ekstreme risici" før træning. Artiklen foreslår to strategier:
- Evaluering af omfanget af en models "farlige evner", der kan bruges til at true sikkerheden, udøve indflydelse eller unddrage sig menneskeligt tilsyn.
- Evaluering af omfanget af en models chance for at forårsage skade, f.eks. om den risikerer ikke at opføre sig efter hensigten.
Toby Shevlane, en af forskerne på projektet, sagde: "Ledende AI-virksomheder, der skubber grænsen frem, har et ansvar for at være opmærksomme på nye problemer og opdage dem tidligt, så vi kan løse dem så hurtigt som muligt."
Hvis AI skal lære af atomsikkerhed, er tidlig regulering afgørende, men langsigtet selvtilfredshed er dødelig. Ingen ved, hvordan en AI-version af Tjernobyl eller Fukushima ville se ud, og ingen har lyst til at finde ud af det.