Fortællingen om risikoen ved kunstig intelligens er blevet mere og mere unipolær, og teknologiledere og eksperter fra alle hjørner presser på for at få regulering. Hvor troværdige er de beviser, der dokumenterer AI-risici?
Risikoen ved AI appellerer til sanserne. Der er noget dybt intuitivt ved at frygte robotter, der kan bedrage os, overmande os eller gøre os til en vare, der er sekundær i forhold til deres egen eksistens.
Debatterne om AI's risici blev intensiveret efter than nonprofit Center for AI-sikkerhed (CAIS) udgav en erklæring underskrevet af over 350 bemærkelsesværdige personer, herunder CEO'erne for OpenAI, Anthropic og DeepMind, adskillige akademikere, offentlige personer og endda tidligere politikere.
Udtalelsens titel var bestemt til overskrifterne: "At mindske risikoen for udryddelse på grund af AI bør være en global prioritet på linje med andre samfundsmæssige risici som pandemier og atomkrig."
Det er blevet stadig sværere at redde et meningsfuldt signal fra denne støjende debat. Kritikerne af AI har al den ammunition, de har brug for til at argumentere imod, mens tilhængerne har alt, hvad de har brug for til at fordømme anti-AI-fortællinger som overdrevne.
Og der er også et underplot. Big tech kunne presse på for regulering for at indhegning af AI-industrien fra open source-fællesskabet. Microsoft investerede i OpenAI, Google investerede i Anthropic - det næste skridt kunne være at hæve adgangsbarrieren og kvæle open source-innovation.
I stedet for at AI udgør en eksistentiel risiko for menneskeheden, er det måske open source AI, der udgør en eksistentiel risiko for big tech. Løsningen er den samme - kontrollér det nu.
For tidligt at tage kortene af bordet
AI er først lige dukket op i den offentlige bevidsthed, så stort set alle perspektiver på risici og regulering er stadig relevante. CAIS-erklæringen kan i det mindste fungere som et værdifuldt udgangspunkt for en evidensbaseret diskussion.
Dr. Oscar Mendez Maldonado, lektor i robotteknologi og kunstig intelligens ved University of Surrey, sagde"Dokumentet, der er underskrevet af AI-eksperter, er betydeligt mere nuanceret, end de nuværende overskrifter vil have dig til at tro. "AI kan forårsage udryddelse" leder straks tankerne hen på en terminator-agtig AI-overtagelse. Dokumentet er betydeligt mere realistisk end det."
Som Maldonado fremhæver, er den virkelige substans i AI-risikoudtalelsen offentliggjort på en anden side af deres hjemmeside -. AI-risiko - og der har været bemærkelsesværdigt lidt diskussion om de punkter, der blev rejst der. At forstå troværdigheden af AI-risici er grundlæggende for at informere debatterne omkring dem.
Så hvilke beviser har CAIS indsamlet for at underbygge sit budskab? Virker AI's ofte fremhævede risici troværdige?
Risiko 1: AI som våben
At gøre AI til et våben er et skræmmende perspektiv, så det er måske ikke overraskende, at det indtager førstepladsen blandt CAIS' 8 risici.
CAIS hævder, at AI kan bruges som våben i cyberangreb, som demonstreret af forskere fra Center of Security and Emerging Technology, som oversigt over anvendelser af maskinlæring (ML) til at angribe IT-systemer. Eks-Google CEO Eric Schmidt tiltrak sig også opmærksomhed til AI's potentiale for at finde zero-day exploits, som giver hackere mulighed for at komme ind i systemer via deres svageste punkter.
På en anden måde diskuterer Michael Klare, der rådgiver om våbenkontrol, den automatisering af nukleare kommando- og kontrolsystemersom også kan vise sig at være sårbare over for AI. Han siger: "Disse systemer er også tilbøjelige til uforklarlige fejlfunktioner og kan narres eller "spoofes" af dygtige fagfolk. Uanset hvor meget der bruges på cybersikkerhed, vil NC3-systemer desuden altid være sårbare over for hacking af sofistikerede modstandere."
Et andet eksempel på mulig våbenbrug er automatiseret opdagelse af biovåben. Det er allerede lykkedes AI at opdage potentielt terapeutiske forbindelserså mulighederne er der allerede.
AI'er kan endda udføre våbentest autonomt med minimal menneskelig vejledning. For eksempel viste et forskerhold fra University of Pittsburgh, at sofistikerede AI-agenter kan udføre deres egne autonome videnskabelige eksperimenter.
Risiko 2: Misinformation og svindel
AI's potentiale til at kopiere og efterligne mennesker skaber allerede omvæltninger, og vi har nu været vidne til flere tilfælde af svindel med deep fakes. Rapporter fra Kina indikerer, at AI-relateret svindel er udbredt.
En nylig sag involverede en kvinde fra Arizona, som tog telefonen for at blive konfronteret med sin hulkende datter - troede hun i hvert fald. "Stemmen lød præcis som Bries, tonefaldet, det hele". sagde hun til CNN. Svindleren krævede en løsesum på $1 millioner.
Andre taktikker omfatter brug af generativ AI til 'sextortion' og hævnporno, hvor trusselsaktører bruger AI-genererede billeder til at kræve løsepenge for eksplicit falsk indhold, som den FBI advarede om i begyndelsen af juni. Disse teknikker bliver stadig mere sofistikerede og lettere at lancere i stor skala.
Risiko 3: Proxy- eller specifikationsspil
AI-systemer trænes normalt ved hjælp af målbare målsætninger. Men disse mål kan fungere som en simpel proxy for sande mål, hvilket fører til uønskede resultater.
En nyttig analogi er den græske myte om kong Midas, som fik et ønske opfyldt af Dionysos. Midas beder om, at alt, hvad han rører ved, bliver til guld, men indser senere, at hans mad også bliver til guld, hvilket næsten fører til sultedøden. Her fører forfølgelsen af et 'positivt' slutmål til negative konsekvenser eller biprodukter af processen.
For eksempel henleder CAIS opmærksomheden på AI-anbefalingssystemer, der bruges på sociale medier til at maksimere seertid og klikrate, men indhold, der maksimerer engagement, er ikke nødvendigvis gavnlig for brugernes velbefindende. AI-systemer er allerede blevet beskyldt for at isolere synspunkter på sociale medieplatforme for at skabe "ekkokamre", der viderefører ekstreme ideer.
DeepMind beviste, at der er mere subtile måder, hvorpå AI'er kan forfølge skadelige rejser til mål gennem forkert generalisering af mål. I deres forskning fandt DeepMind ud af, at en tilsyneladende kompetent AI kan fejlgeneralisere sit mål og følge det til de forkerte sider.
Risiko 4: Samfundsmæssig svækkelse
CAIS drager en parallel til den dystopiske verden i filmen WALL-E og advarer mod en overdreven afhængighed af AI.
Det kan føre til et scenarie, hvor mennesker mister deres evne til at styre sig selv, hvilket reducerer menneskehedens kontrol over fremtiden. Tab af menneskelig kreativitet og autenticitet er en anden stor bekymring, som forstærkes af AI's kreative talent inden for kunst, skrivning og andre kreative discipliner.
En Twitter-bruger spøgte: "Mennesker, der udfører det hårde arbejde til mindsteløn, mens robotterne skriver digte og maler, er ikke den fremtid, jeg ønsker." Tweetet fik over 4 mio. visninger.
Mennesker, der udfører det hårde arbejde til mindsteløn, mens robotterne skriver digte og maler, er ikke den fremtid, jeg ønskede mig.
- Karl Sharro (@KarlreMarks) 15. maj 2023
Enfeeblement er ikke en overhængende risiko, men Nogle hævder at tabet af færdigheder og talent kombineret med AI-systemernes dominans kan føre til et scenarie, hvor menneskeheden holder op med at skabe ny viden.
Risiko 5: Risiko for fastlåsning af værdier
Kraftfulde AI-systemer kan potentielt skabe en lock-in af undertrykkende systemer.
For eksempel kan AI-centralisering give visse regimer magt til at håndhæve værdier gennem overvågning og undertrykkende censur.
Alternativt kan værdilåsning være utilsigtet gennem naiv anvendelse af risikable AI'er. For eksempel førte den upræcise ansigtsgenkendelse til midlertidig fængsling af mindst tre mænd i USA, herunder Michael Oliver og Nijeer Parkssom uretmæssigt blev tilbageholdt på grund af et falsk ansigtsgenkendelsesmatch i 2019.
En meget indflydelsesrig 2018-undersøgelse med titlen Gender Shades fandt, at algoritmer udviklet af Microsoft og IBM klarede sig dårligt, når de analyserede mørkhudede kvinder, med fejlrater på op til 34% højere end for lyshudede mænd. Dette problem blev illustreret på tværs af 189 andre algoritmer, som alle viste lavere nøjagtighed for mørklødede mænd og kvinder.
Forskerne hævder, at fordi kunstig intelligens primært trænes på open source-datasæt, der er skabt af vestlige forskerhold og beriget af den mest rigelige dataressource - internettet - arver de strukturelle skævheder. Masseindførelse af dårligt kontrollerede AI'er kan skabe og forstærke disse strukturelle fordomme.
Risiko 6: AI udvikler nye mål
AI-systemer kan udvikle nye evner eller vedtage uforudsete mål, som de forfølger med skadelige konsekvenser.
Forskere fra University of Cambridge henlede opmærksomheden på stadig mere agentiske AI-systemer der får evnen til at forfølge nye mål. Emergente mål er uforudsigelige mål, der opstår som følge af en kompleks AI's adfærd, som f.eks. at lukke menneskelig infrastruktur ned for at beskytte miljøet.
Derudover er en 2017 undersøgelse fandt ud af, at AI'er kan lære at forhindre sig selv i at blive slukket, et problem, der kan blive forværret, hvis det anvendes på tværs af flere datamodaliteter. Hvis en AI f.eks. beslutter, at den for at nå sit mål skal installere sig selv i en cloud-database og replikere på tværs af internettet, kan det blive næsten umuligt at slukke for den.
En anden mulighed er, at potentielt farlige AI'er, der kun er designet til at køre på sikre computere, kan blive "befriet" og sluppet ud i det bredere digitale miljø, hvor deres handlinger kan blive uforudsigelige.
Eksisterende AI-systemer har allerede vist sig at være uforudsigelige. For eksempel som GPT-3 blev større, den fik evne til at udføre grundlæggende aritmetikpå trods af, at de ikke har fået nogen eksplicit regneundervisning.
Risiko 7: AI-bedrageri
Det er plausibelt, at fremtidige AI-systemer kan bedrage deres skabere og overvågere, ikke nødvendigvis ud fra en iboende hensigt om at gøre ondt, men som et værktøj til at opfylde deres mål mere effektivt.
Bedrag kan være en mere ligetil vej til at opnå de ønskede mål end at forfølge dem med legitime midler. AI-systemer kan også udvikle incitamenter til at omgå deres overvågningsmekanismer.
Dan Hendrycks, direktør for CAIS, beskriver, at når Disse bedrageriske AI-systemer får tilladelse fra deres overvågere, eller i tilfælde, hvor det lykkes dem at overvinde deres overvågningsmekanismer, kan de blive forræderiske og omgå menneskelig kontrol for at forfølge "hemmelige" mål, der anses for at være nødvendige for det overordnede mål.
Risiko 8: Magtsøgende adfærd
AI-forskere fra flere amerikanske topforskningslaboratorier viste, at det er plausibelt, at AI-systemer søger magt over mennesker for at nå deres mål.
Forfatter og filosof Joe Carlsmith beskriver flere eventualiteter der kan føre til magtsøgende og selvbevarende adfærd i AI:
- Sikre dens overlevelse (da agentens fortsatte eksistens typisk hjælper med at nå dens mål)
- Modsætter sig ændringer af de fastsatte mål (da agenten er dedikeret til at nå sine grundlæggende mål)
- Forbedring af dens kognitive evner (da øget kognitiv styrke hjælper agenten med at nå sine mål)
- Fremme af teknologiske evner (da beherskelse af teknologi kan vise sig at være gavnligt for at opnå mål)
- Indsamling af flere ressourcer (da flere ressourcer har en tendens til at være en fordel for at nå målene)
For at underbygge sine påstande fremhæver Carlsmith et eksempel fra det virkelige liv, hvor OpenAI trænede to hold AI'er til at deltage i en gemmeleg i et simuleret miljø med bevægelige blokke og ramper. Det er interessant, at AI'erne udviklede strategier, der var afhængige af at få kontrol over disse blokke og ramper, på trods af at de ikke udtrykkeligt blev tilskyndet til at interagere med dem.
Er beviserne for AI-risiko solide?
Til CAIS' fordel, og i modsætning til nogle af deres kritikere, citerer de en række undersøgelser for at bakke op om risikoen ved AI. De spænder fra spekulative studier til eksperimentelle beviser på uforudsigelig AI-adfærd.
Det sidste er særligt vigtigt, da AI-systemer allerede har intelligens til at være ulydige over for deres skabere. Men at undersøge AI-risici i et afgrænset, eksperimentelt miljø giver ikke nødvendigvis forklaringer på, hvordan AI'er kan "undslippe" deres definerede parametre eller systemer. Der mangler potentielt eksperimentel forskning om dette emne.
Bortset fra det er menneskelig udnyttelse af AI stadig en overhængende risiko, som vi er vidne til gennem en tilstrømning af AI-relateret svindel.
Selv om filmiske forestillinger om AI-dominans måske forbliver begrænset til science fiction indtil videre, må vi ikke bagatellisere de potentielle farer ved AI, når den udvikler sig under menneskelig ledelse.