En analyse av AI-risikoens labyrint: en analyse

13. juni 2023

AI-risiko

Narrativet rundt risikoen ved kunstig intelligens har blitt stadig mer unipolært, med teknologiledere og eksperter fra alle kanter som presser på for regulering. Hvor troverdige er bevisene som dokumenterer risikoen ved kunstig intelligens? 

Risikoen ved AI appellerer til sansene. Det er noe dypt intuitivt ved å frykte roboter som kan lure oss, overmanne oss eller gjøre oss til en vare som er underordnet deres egen eksistens.

Debatten om risikoen ved kunstig intelligens ble intensivert etter atden ideelle organisasjonen Senter for KI-sikkerhet (CAIS) utgitt en uttalelse signert av over 350 kjente personer, inkludert administrerende direktører i OpenAI, Anthropic og DeepMind, en rekke akademikere, offentlige personer og til og med eks-politikere. 

Tittelen på uttalelsen var som skapt for overskriftene: "Å redusere risikoen for utryddelse som følge av kunstig intelligens bør være en global prioritet på linje med andre samfunnsmessige risikoer som pandemier og atomkrig."

Det har blitt stadig vanskeligere å få et meningsfullt signal ut av denne støyende debatten. Kritikerne av AI har all den ammunisjonen de trenger for å argumentere mot AI, mens tilhengerne har all den ammunisjonen de trenger for å fordømme anti-AI-fortellingene som overhypede.

Og det er også et underplott. Big tech kan presse på for regulering for å inngjerding av AI-industrien fra åpen kildekode-fellesskapet. Microsoft investerte i OpenAI, Google investerte i Anthropic - det neste trekket kan bli å heve terskelen for å komme inn på markedet og kvele åpen kildekode-innovasjon.

I stedet for at AI utgjør en eksistensiell risiko for menneskeheten, kan det være AI med åpen kildekode som utgjør en eksistensiell risiko for big tech. Løsningen er den samme - kontroller den nå.

For tidlig å ta kortene av bordet

Kunstig intelligens har bare så vidt dukket opp i den offentlige bevisstheten, så praktisk talt alle perspektiver på risiko og regulering er fortsatt relevante. CAIS-uttalelsen kan i det minste fungere som et verdifullt utgangspunkt for en evidensbasert diskusjon.

Dr. Oscar Mendez Maldonado, foreleser i robotikk og kunstig intelligens ved University of Surrey, sa"Dokumentet som er signert av AI-eksperter, er betydelig mer nyansert enn dagens overskrifter vil ha deg til å tro. "AI kan føre til utryddelse" leder umiddelbart tankene hen på en Terminator-aktig AI-overtakelse. Dokumentet er betydelig mer realistisk enn som så."

Som Maldonado fremhever, er det egentlige innholdet i AIs risikoerklæring publisert på en annen side på nettstedet deres - nemlig AI-risiko - og det har vært bemerkelsesverdig lite diskusjon rundt punktene som ble tatt opp der. Å forstå troverdigheten til KI-risikoer er grunnleggende for å kunne informere debattene rundt dem.

Så hvilke bevis har CAIS samlet for å underbygge sitt budskap? Virker de ofte påberopte risikoene ved kunstig intelligens troverdige? 

Risiko 1: AI-våpenisering

Våpenisering av kunstig intelligens er et skremmende perspektiv, så det er kanskje ikke overraskende at dette ligger øverst blant CAIS' åtte risikoer. 

CAIS hevder at AI kan brukes som våpen i cyberangrep, noe som ble demonstrert av forskere fra Center of Security and Emerging Technology, som oversikt over bruksområdene av maskinlæring (ML) for å angripe IT-systemer. Eks-Google-sjef Eric Schmidt vakte også oppmerksomhet til AIs potensial for å finne nulldagersutnyttelser, som gir hackere mulighet til å komme seg inn i systemer via de svakeste punktene. 

Michael Klare, som er rådgiver innen rustningskontroll, diskuterer i en annen sammenheng automatisering av kjernefysiske kommando- og kontrollsystemersom også kan vise seg å være sårbare for AI. Han sier: "Disse systemene er også utsatt for uforklarlige funksjonsfeil og kan lures, eller "spoofes", av dyktige fagfolk. Uansett hvor mye man bruker på cybersikkerhet, vil NC3-systemer dessuten alltid være sårbare for hacking av sofistikerte motstandere."

Et annet eksempel på mulig våpenisering er automatisert oppdagelse av biovåpen. AI har allerede lykkes i å oppdage potensielt terapeutiske forbindelser, så mulighetene er allerede til stede. 

Kunstig intelligens kan til og med utføre våpentester autonomt med minimal menneskelig veiledning. Et forskerteam fra University of Pittsburgh viste for eksempel at sofistikerte AI-agenter kan utføre sine egne autonome vitenskapelige eksperimenter.

Risiko 2: Feilinformasjon og svindel

AIs potensial til å kopiere og etterligne mennesker skaper allerede omveltninger, og vi har nå vært vitne til flere tilfeller av svindel med dype forfalskninger. Rapporter fra Kina indikerer at AI-relatert svindel er utbredt. 

En kvinne fra Arizona tok nylig telefonen og ble konfrontert med sin gråtende datter - trodde hun i hvert fall. "Stemmen hørtes ut akkurat som Bries, tonefallet, alt," sa hun til CNN. Svindleren krevde $1 million i løsepenger. 

Andre taktikker inkluderer bruk av generativ AI til "sextortion" og hevnporno, der trusselaktører bruker AI-genererte bilder for å kreve løsepenger for eksplisitt falskt innhold, noe som FBI advarte om i begynnelsen av juni. Disse teknikkene blir stadig mer sofistikerte og enklere å lansere i stor skala.

Risiko 3: Proxy- eller spesifikasjonsspill

AI-systemer trenes vanligvis opp ved hjelp av målbare mål. Disse målene kan imidlertid fungere som en ren stedfortreder for de virkelige målene, noe som kan føre til uønskede resultater. 

En nyttig analogi er den greske myten om kong Midas, som fikk et ønske oppfylt av Dionysos. Midas ber om at alt han rører ved skal bli til gull, men innser senere at maten hans også blir til gull, noe som nesten fører til sultedød. Her fører det å forfølge et "positivt" sluttmål til negative konsekvenser eller biprodukter av prosessen.

CAIS trekker for eksempel frem AI-anbefalingssystemer som brukes i sosiale medier for å maksimere seertid og klikkfrekvens, men innhold som maksimerer engasjement er ikke nødvendigvis gunstig for brukernes velvære. AI-systemer har allerede blitt beskyldt for å skape "ekkokamre" på sosiale medier, noe som viderefører ekstreme ideer. 

DeepMind beviste at det finnes mer subtile måter for kunstig intelligens å forfølge skadelige reiser mot mål gjennom feilaktig generalisering av mål. I sin forskning fant DeepMind ut at en tilsynelatende kompetent AI kan feilgeneralisere målet sitt og følge det til feil mål. 

Risiko 4: Samfunnsmessig svekkelse

CAIS trekker en parallell til den dystopiske verdenen i filmen WALL-E, og advarer mot å stole for mye på kunstig intelligens. 

Dette kan føre til et scenario der mennesker mister evnen til å styre seg selv, noe som reduserer menneskehetens kontroll over fremtiden. Tap av menneskelig kreativitet og autentisitet er en annen stor bekymring, som forsterkes av AIs kreative talent innen kunst, skriving og andre kreative disipliner. 

En Twitter-bruker skrev: "Mennesker som gjør de vanskelige jobbene på minstelønn mens robotene skriver poesi og maler, er ikke den fremtiden jeg ønsket meg." Tweeten fikk over 4 millioner visninger. 

Det er ikke en overhengende risiko, men noen hevder at tap av kompetanse og talent kombinert med AI-systemenes dominans kan føre til et scenario der menneskeheten slutter å skape ny kunnskap.

Risiko 5: Risiko for innlåsing av verdier

Kraftige AI-systemer kan potensielt skape en innlåsing av undertrykkende systemer. 

Sentralisering av KI kan for eksempel gi visse regimer makt til å håndheve verdier gjennom overvåking og undertrykkende sensur.

Alternativt kan verdilåsing skje utilsiktet gjennom naiv bruk av risikabel kunstig intelligens. For eksempel førte den upresise ansiktsgjenkjenningen til at minst tre menn ble midlertidig fengslet i USA, deriblant Michael Oliver og Nijeer Parkssom ble urettmessig fengslet på grunn av en falsk ansiktsgjenkjenning i 2019. 

En svært innflytelsesrik 2018-studie med tittelen Gender Shades fant at algoritmer utviklet av Microsoft og IBM presterte dårlig når de analyserte kvinner med mørkere hudfarge, med feilrater som var opptil 34% høyere enn for menn med lysere hudfarge. Dette problemet ble illustrert i 189 andre algoritmer, som alle viste lavere treffsikkerhet for menn og kvinner med mørkere hudfarge.

Forskerne hevder at fordi kunstig intelligens først og fremst trenes opp på datasett med åpen kildekode som er skapt av vestlige forskerteam og beriket av den mest rikholdige dataressursen - internett - arver de strukturelle skjevheter. Masseinnføring av dårlig kontrollert kunstig intelligens kan skape og forsterke disse strukturelle skjevhetene.

Risiko 6: AI utvikler nye mål 

AI-systemer kan utvikle nye evner eller ta i bruk uforutsette mål som kan få skadelige konsekvenser. 

Forskere fra University of Cambridge rette oppmerksomheten mot stadig mer agentiske AI-systemer som får evnen til å forfølge nye mål. Emergente mål er uforutsigbare mål som oppstår som følge av en kompleks AIs atferd, for eksempel å stenge ned menneskelig infrastruktur for å beskytte miljøet.

I tillegg kan en 2017 studie fant at AI-er kan lære seg å hindre seg selv i å bli slått av, et problem som kan forverres hvis de brukes på tvers av flere datamodaliteter. Hvis en AI for eksempel bestemmer seg for at den må installere seg selv i en skydatabase og replikere over Internett for å nå målet sitt, kan det bli nesten umulig å slå den av.  

En annen mulighet er at potensielt farlige AI-er som kun er utviklet for å kjøre på sikre datamaskiner, kan "frigjøres" og slippes ut i det digitale miljøet, der handlingene deres kan bli uforutsigbare. 

Eksisterende AI-systemer har allerede vist seg å være uforutsigbare. For eksempel, som GPT-3 ble større, det fikk den evne til å utføre grunnleggende aritmetikktil tross for at de ikke har fått noen eksplisitt opplæring i regning. 

Risiko 7: AI-bedrag

Det er plausibelt at fremtidige AI-systemer kan lure skaperne og overvåkerne sine, ikke nødvendigvis med onde hensikter, men som et verktøy for å nå målene sine mer effektivt. 

Bedrag kan være en enklere vei til å oppnå ønskede mål enn å forfølge dem med legitime midler. AI-systemer kan også utvikle insentiver til å omgå overvåkningsmekanismene sine. 

Dan Hendrycks, direktør for CAIS, beskriver at når disse villedende AI-systemene får klarering fra sine overvåkere, eller i tilfeller der de klarer å overmanne overvåkningsmekanismene, kan de bli forræderske og omgå menneskelig kontroll for å forfølge "hemmelige" mål som anses som nødvendige for det overordnede målet. 

Risiko 8: Maktsøkende atferd

AI-forskere fra flere av USAs fremste forskningslaboratorier viste at det er sannsynlig at AI-systemer søker makt over mennesker for å oppnå sine mål.  

Forfatter og filosof Joe Carlsmith beskriver flere eventualiteter som kan føre til maktsøkende og selvbevarende atferd hos kunstig intelligens:

  • Sikre overlevelse (ettersom agentens fortsatte eksistens vanligvis bidrar til at den kan nå sine mål)
  • Motarbeide endringer i de oppsatte målene (ettersom agenten er opptatt av å nå sine grunnleggende mål)
  • Forbedring av de kognitive evnene (ettersom økt kognitiv kraft hjelper agenten med å nå sine mål)
  • Fremskynde teknologiske evner (ettersom det å beherske teknologi kan vise seg å være gunstig for å oppnå mål)
  • Samle inn flere ressurser (ettersom det å ha flere ressurser har en tendens til å være en fordel for å nå målene)

For å underbygge påstandene sine trekker Carlsmith frem et eksempel fra det virkelige liv der OpenAI trente to lag med AI-er til å delta i en gjemmelek i et simulert miljø med bevegelige blokker og ramper. Det er interessant å merke seg at den kunstige intelligensen utviklet strategier som baserte seg på å få kontroll over disse blokkene og rampene, til tross for at de ikke eksplisitt ble oppfordret til å samhandle med dem. 

Er bevisene for AI-risiko solide?

CAIS skal ha ros for at de, i motsetning til noen av kritikerne, viser til en rekke studier som underbygger risikoen ved kunstig intelligens. Disse spenner fra spekulative studier til eksperimentelle bevis på uforutsigbar AI-atferd. 

Det sistnevnte er spesielt viktig, ettersom AI-systemer allerede har intelligens til å være ulydige mot sine skapere. Å undersøke AI-risikoer i et avgrenset, eksperimentelt miljø gir imidlertid ikke nødvendigvis noen forklaring på hvordan AI-er kan "unnslippe" sine definerte parametere eller systemer. Det mangler potensielt eksperimentell forskning på dette temaet.  

Når det er sagt, er menneskelig bruk av kunstig intelligens som våpen fortsatt en overhengende risiko, noe vi er vitne til gjennom en tilstrømning av AI-relatert svindel.

Selv om filmiske forestillinger om AI-dominans foreløpig er forbeholdt science fiction, må vi ikke bagatellisere de potensielle farene ved AI etter hvert som den utvikler seg under menneskelig styring.

Bli med i fremtiden


ABONNER I DAG

Tydelig, kortfattet og omfattende. Få et grep om AI-utviklingen med DagligAI

Sam Jeans

Sam er en vitenskaps- og teknologiskribent som har jobbet i ulike oppstartsbedrifter innen kunstig intelligens. Når han ikke skriver, leser han medisinske tidsskrifter eller graver seg gjennom esker med vinylplater.

×

GRATIS PDF EKSKLUSIV
Hold deg i forkant med DailyAI

Meld deg på vårt ukentlige nyhetsbrev og få eksklusiv tilgang til DailyAIs nyeste e-bok: "Mastering AI Tools: Din 2024-guide til økt produktivitet".

*Ved å abonnere på vårt nyhetsbrev aksepterer du vår Retningslinjer for personvern og vår Vilkår og betingelser