Kun 2% af AI-forskningen ser på sikkerhed, viser undersøgelse fra Georgetown University

5. april 2024

  • Georgetown University fandt ud af, at AI-sikkerhed er underrepræsenteret i forskningen
  • Faktisk fokuserer mindre end 2% af al AI-forskning fra 2017-2022 på AI-sikkerhed.
  • USA leder forskningen i AI-sikkerhed, mens Kina halter bagefter
AI-sikkerhed

Vi hører meget om AI-sikkerhed, men betyder det, at det fylder meget i forskningen?

En ny undersøgelse fra Georgetown University's Emerging Technology Observatory tyder på, at forskning i AI-sikkerhed på trods af støjen kun udgør et lille mindretal af branchens forskningsfokus.

Forskerne analyserede over 260 millioner videnskabelige publikationer og fandt ud af, at kun 2% af de AI-relaterede artikler, der blev udgivet mellem 2017 og 2022, direkte behandlede emner relateret til AI-sikkerhed, etik, robusthed eller styring. 

Selvom antallet af publikationer om AI-sikkerhed voksede med imponerende 315% i den periode, fra omkring 1.800 til over 7.000 om året, er det stadig et perifert emne. 

Her er de vigtigste resultater:

  • Kun 2% af AI-forskningen fra 2017-2022 fokuserede på AI-sikkerhed
  • AI-sikkerhedsforskningen voksede 315% i den periode, men er en dværg i forhold til den samlede AI-forskning
  • USA er førende inden for forskning i AI-sikkerhed, mens Kina halter bagefter 
  • De vigtigste udfordringer er robusthed, retfærdighed, gennemsigtighed og opretholdelse af menneskelig kontrol.
AI-sikkerhed
Forskningen i AI-sikkerhed voksede med 315% mellem 2017 og 2022, men er stadig mangelfuld. Kilde: Observatorium for ny teknologi.

Mange førende AI-forskere og etikere har advaret om eksistentielle risici, hvis kunstig generel intelligens (AGI) udvikles uden tilstrækkelige sikkerhedsforanstaltninger og forholdsregler. 

Forestil dig et AGI-system, der er i stand til at forbedre sig selv rekursivt og hurtigt overgår den menneskelige intelligens, mens det forfølger mål, der ikke er i overensstemmelse med vores værdier. Det er et scenarie, som nogle mener kan komme ud af vores kontrol.

Men det er ikke envejstrafik. Faktisk mener et stort antal AI-forskere, at AI-sikkerhed er overhypet

Derudover mener nogle endda, at hypen er blevet fremstillet for at hjælpe Big Tech med at håndhæve regler og eliminere græsrødder og open source-konkurrenter

Men selv nutidens snævre AI-systemer, der er trænet på tidligere data, kan udvise bias, producere skadeligt indhold, krænke privatlivets fred og blive brugt ondsindet.

Så selvom AI-sikkerhed skal se ind i fremtiden, skal den også håndtere risici her og nu, hvilket uden tvivl er utilstrækkeligt, da deep fakes, bias og andre problemer fortsat fylder meget. 

Effektiv forskning i AI-sikkerhed skal adressere udfordringer på kort sigt såvel som spekulative risici på længere sigt.

USA er førende inden for forskning i AI-sikkerhed

Når man dykker ned i dataene, er USA klart førende inden for forskning i AI-sikkerhed med 40% af relaterede publikationer sammenlignet med 12% fra Kina. 

Men Kinas sikkerhedsproduktion halter langt bagefter landets samlede AI-forskning - mens 5% af den amerikanske AI-forskning omhandlede sikkerhed, var det kun 1% af Kinas. 

Man kunne forestille sig, at det er en meget vanskelig opgave at undersøge kinesisk forskning. Desuden har Kina været proaktiv omkring regulering - uden tvivl mere end USA - så disse data giver måske ikke landets AI-industri en fair behandling. 

På institutionsniveau fører Carnegie Mellon University, Google, MIT og Stanford an. 

Men globalt set producerede ingen organisation mere end 2% af de samlede sikkerhedsrelaterede publikationer, hvilket understreger behovet for en større og mere samordnet indsats.

Ubalancer i sikkerheden

Så hvad kan man gøre for at rette op på denne ubalance? 

Det afhænger af, om man mener, at AI-sikkerhed er en presserende risiko på linje med atomkrig, pandemier osv. Der er ikke noget entydigt svar på dette spørgsmål, hvilket gør AI-sikkerhed til et meget spekulativt emne med ringe gensidig aftale mellem forskere

Sikkerhedsforskning og etik er også en slags tangentielt domæne til maskinlæring, der kræver andre færdigheder, akademiske baggrunde osv. og som måske ikke er velfinansieret.

At lukke AI-sikkerhedskløften vil også kræve, at man konfronterer spørgsmål om åbenhed og hemmeligholdelse i AI-udvikling. 

De største teknologivirksomheder udfører omfattende intern sikkerhedsforskning, som aldrig er blevet offentliggjort. I takt med at kommercialiseringen af AI tager fart, bliver virksomhederne mere beskyttende over for deres AI-gennembrud.

OpenAI var for eksempel et kraftcenter for forskning i sine tidlige dage. 

Virksomheden plejede at producere dybdegående uafhængige revisioner af sine produkter, mærkningsforstyrrelser og risici - som f.eks. sexistisk bias i sit CLIP-projekt

Anthropic er stadig aktivt engageret i forskning i offentlig AI-sikkerhed og udgiver ofte studier om skævhed og jailbreaking.

DeepMind dokumenterede også muligheden for, at AI-modeller etablerer "emergente mål" og aktivt modsiger deres instruktioner eller bliver fjendtlige over for deres skabere. 

Overordnet set er sikkerheden dog trådt i baggrunden for fremskridtet, da Silicon Valley lever efter sit motto om at 'bevæge sig hurtigt og ødelægge ting'.

Georgetown-undersøgelsen fremhæver i sidste ende, at universiteter, regeringer, teknologivirksomheder og forskningsfinansiører er nødt til at investere flere kræfter og penge i AI-sikkerhed. 

Nogle har også opfordret til en internationalt organ for AI-sikkerhedDet svarer til Det Internationale Atomenergiagentur (IAEA), som blev oprettet efter en række atomhændelser, der gjorde et omfattende internationalt samarbejde obligatorisk. 

Får AI brug for sin egen katastrofe for at få staten og virksomhederne til at samarbejde på det niveau? Lad os ikke håbe det. 

Deltag i fremtiden


TILMELD DIG I DAG

Klar, kortfattet, omfattende. Få styr på AI-udviklingen med DailyAI

Sam Jeans

Sam er videnskabs- og teknologiforfatter og har arbejdet i forskellige AI-startups. Når han ikke skriver, kan han finde på at læse medicinske tidsskrifter eller grave i kasser med vinylplader.

×

GRATIS PDF EKSKLUSIVT
Vær på forkant med DailyAI

Tilmeld dig vores ugentlige nyhedsbrev og få eksklusiv adgang til DailyAI's seneste e-bog: 'Mastering AI Tools: Din 2024-guide til forbedret produktivitet'.

*Ved at tilmelde dig vores nyhedsbrev accepterer du vores Politik for beskyttelse af personlige oplysninger og vores Vilkår og betingelser