Att navigera i labyrinten av AI-risker: en analys

13 juni 2023
AI-risk

Berättelsen om riskerna med AI har blivit alltmer unipolär, med teknikledare och experter från alla håll som driver på för reglering. Hur trovärdiga är de bevis som dokumenterar AI-risker? 

Riskerna med AI vädjar till sinnena. Det finns något djupt intuitivt i att frukta robotar som kan lura oss, övermanna oss eller göra oss till en handelsvara som är underordnad deras egen existens.

Debatterna kring riskerna med AI intensifierades efter than ideell Centrum för AI-säkerhet (CAIS) släppte en uttalande undertecknad av över 350 framstående personer, inklusive VD:arna för OpenAI, Anthropic och DeepMind, många akademiker, offentliga personer och till och med före detta politiker. 

Uttalandets rubrik var ämnad för rubrikerna: "Att minska risken för utrotning på grund av AI bör vara en global prioritet vid sidan av andra samhällsrisker som pandemier och kärnvapenkrig."

Att rädda en meningsfull signal från denna bullriga debatt har blivit allt svårare. AI-kritikerna har all ammunition de behöver för att argumentera mot AI, medan de som stödjer AI eller är tveksamma har allt de behöver för att fördöma anti-AI-berättelser som överdrivna.

Och det finns en underplott också. Big tech kan driva på för reglering för att omgärda AI-industrin med stängsel från open source-communityn. Microsoft investerade i OpenAI, Google investerade i Anthropic - nästa steg kan bli att höja inträdesbarriärerna och strypa innovation med öppen källkod.

I stället för att AI utgör en existentiell risk för mänskligheten kan det vara AI med öppen källkod som utgör en existentiell risk för big tech. Lösningen är densamma - kontrollera den nu.

För tidigt att ta bort korten från bordet

AI har bara precis dykt upp i det allmänna medvetandet, så praktiskt taget alla perspektiv på risker och reglering är fortfarande relevanta. CAIS-uttalandet kan åtminstone fungera som en värdefull vägvisare för att vägleda en evidensbaserad diskussion.

Dr. Oscar Mendez Maldonado, föreläsare i robotik och artificiell intelligens vid University of Surrey, sa"Dokumentet som undertecknats av AI-experter är betydligt mer nyanserat än vad nuvarande rubriker vill få dig att tro. "AI kan orsaka utrotning" för omedelbart tankarna till ett terminatorliknande AI-övertagande. Dokumentet är betydligt mer realistiskt än så."

Som Maldonado påpekar publiceras det verkliga innehållet i AI:s riskuttalande på en annan sida på deras webbplats - AI-risk - och det har varit anmärkningsvärt lite diskussion kring de punkter som tas upp där. Att förstå trovärdigheten i AI-riskerna är grundläggande för att kunna informera om debatterna kring dem.

Så vilka bevis har CAIS sammanställt för att underbygga sitt budskap? Verkar AI:s ofta påstådda risker trovärdiga? 

Risk 1: AI som vapen

Att AI används som vapen är ett skrämmande perspektiv, så det är kanske inte förvånande att detta hamnar högst upp bland CAIS 8 risker. 

CAIS hävdar att AI kan användas som vapen i cyberattacker, vilket demonstrerats av forskare från Center of Security and Emerging Technology, som översikt användningsområden av maskininlärning (ML) för att angripa IT-system. Googles före detta VD Eric Schmidt uppmärksammades också till AI:s potential att hitta zero-day exploits, som ger hackare möjlighet att ta sig in i system via deras svagaste punkter. 

På ett annat sätt diskuterar Michael Klare, som är rådgivare inom rustningskontroll, den automatisering av kärntekniska lednings- och kontrollsystemsom också kan visa sig vara sårbara för AI. Han säger: "Dessa system är också benägna att drabbas av oförklarliga funktionsfel och kan luras, eller "spoofas", av skickliga yrkesmän. Oavsett hur mycket pengar som läggs på cybersäkerhet kommer NC3-systemen dessutom alltid att vara sårbara för hackning av sofistikerade motståndare."

Ett annat exempel på möjlig vapenanvändning är automatiserad upptäckt av biovapen. AI har redan lyckats med att upptäcka potentiellt terapeutiska föreningarså kapaciteten finns redan där. 

AI kan till och med utföra vapentester autonomt med minimal mänsklig vägledning. Ett forskarteam från University of Pittsburgh visade till exempel att sofistikerade AI-agenter kan utföra sina egna autonoma vetenskapliga experiment.

Risk 2: Felaktig information och bedrägeri

AI:s potential att kopiera och härma människor skapar redan omvälvningar, och vi har nu bevittnat flera fall av bedrägerier med djupa förfalskningar. Rapporter från Kina tyder på att AI-relaterade bedrägerier är vanliga. 

Ett aktuellt fall rör en kvinna från Arizona som lyfte luren och möttes av sin gråtande dotter - trodde hon i alla fall. "Rösten lät precis som Bries, böjningen, allt" berättade hon för CNN. Bedragaren krävde en lösensumma på $1 miljoner. 

Andra taktiker inkluderar användning av generativ AI för "sextortion" och hämndporr, där hotaktörer använder AI-genererade bilder för att kräva lösensummor för explicit falskt innehåll, som FBI varnade för i början av juni. Dessa tekniker blir alltmer sofistikerade och lättare att lansera i stor skala.

Risk 3: Proxy- eller specifikationsspel

AI-system tränas vanligtvis med hjälp av mätbara mål. Dessa mål kan dock fungera som en ren proxy för verkliga mål, vilket leder till oönskade resultat. 

En användbar analogi är den grekiska myten om kung Midas, som fick en önskan uppfylld av Dionysos. Midas ber att allt han rör vid ska förvandlas till guld, men inser senare att även hans mat förvandlas till guld, vilket nästan leder till svält. Här leder strävan efter ett "positivt" slutmål till negativa konsekvenser eller biprodukter av processen.

CAIS uppmärksammar till exempel AI-rekommendationssystem som används på sociala medier för att maximera tittartid och klickfrekvens, men innehåll som maximerar engagemanget är inte nödvändigtvis gynnsamt för användarnas välbefinnande. AI-system har redan beskyllts för att skapa "ekokammare" på sociala medieplattformar där extrema idéer sprids. 

DeepMind bevisade att det finns subtilare sätt för AI att bedriva skadliga resor till mål genom felaktig generalisering av mål. I sin forskning fann DeepMind att en till synes kompetent AI kan missuppfatta sitt mål och följa det i fel riktning. 

Risk 4: Försvagning av samhället

CAIS drar en parallell till den dystopiska världen i filmen WALL-E och varnar för att förlita sig för mycket på AI. 

Detta kan leda till ett scenario där människor förlorar sin förmåga att styra sig själva, vilket minskar mänsklighetens kontroll över framtiden. Förlusten av mänsklig kreativitet och autenticitet är ett annat stort bekymmer, som förstärks av AI:s kreativa talang inom konst, skrivande och andra kreativa discipliner. 

En Twitter-användare skämtade: "Människor som gör de svåra jobben på minimilön medan robotarna skriver poesi och målar är inte den framtid jag ville ha." Tweeten fick över 4 miljoner visningar. 

Enfeeblement är inte en överhängande risk, men vissa hävdar att förlusten av kompetens och talang i kombination med AI-systemens dominans kan leda till ett scenario där mänskligheten slutar att skapa ny kunskap.

Risk 5: Risk för inlåsning av värde

Kraftfulla AI-system kan potentiellt skapa en inlåsning av förtryckande system. 

Centralisering av AI kan till exempel ge vissa regimer makten att genomdriva värderingar genom övervakning och förtryckande censur.

Alternativt kan värdeinlåsningen vara oavsiktlig genom att man naivt använder riskfyllda AI-system. Exempelvis ledde den oprecisa ansiktsigenkänningen till att minst tre män i USA fängslades tillfälligt, däribland Michael Oliver och Nijeer Parks, som felaktigt frihetsberövades på grund av en falsk ansiktsigenkänning 2019. 

En mycket inflytelserik 2018 års studie med titeln Gender Shades fann att algoritmer utvecklade av Microsoft och IBM fungerade dåligt när de analyserade mörkhyade kvinnor, med felfrekvenser upp till 34% högre än för ljushyade manliga individer. Detta problem illustrerades av 189 andra algoritmer, som alla visade lägre träffsäkerhet för mörkhyade män och kvinnor.

Forskarna hävdar att eftersom AI främst tränas på dataset med öppen källkod som skapats av västerländska forskargrupper och berikas av den mest rikliga dataresursen - internet - ärver de strukturella fördomar. Massanvändning av dåligt kontrollerade AI:er kan skapa och förstärka dessa strukturella fördomar.

Risk 6: AI utvecklar framväxande mål 

AI-system kan utveckla nya förmågor eller anta oförutsedda mål som de strävar efter med skadliga konsekvenser. 

Forskare från University of Cambridge uppmärksamma alltmer agentiska AI-system som får förmågan att sträva efter framväxande mål. Emergenta mål är oförutsägbara mål som uppstår ur en komplex AI:s beteende, till exempel att stänga av mänsklig infrastruktur för att skydda miljön.

Därutöver kan en 2017 års studie fann att AI kan lära sig att förhindra att de stängs av, ett problem som kan förvärras om de används i flera olika datalösningar. Om en AI till exempel bestämmer sig för att den måste installera sig i en molndatabas och replikera sig över internet för att uppnå sitt mål, kan det bli näst intill omöjligt att stänga av den.  

En annan möjlighet är att potentiellt farliga AI:er som endast är avsedda att köras på säkra datorer "befrias" och släpps ut i den bredare digitala miljön, där deras handlingar kan bli oförutsägbara. 

Befintliga AI-system har redan visat sig vara oförutsägbara. Som exempel kan nämnas GPT-3 blev större, den fick den förmåga att utföra grundläggande aritmetiska beräkningartrots att de inte fått någon explicit aritmetisk träning. 

Risk 7: AI-bedrägeri

Det är troligt att framtida AI-system skulle kunna lura sina skapare och övervakare, inte nödvändigtvis på grund av en inneboende avsikt att göra ont, utan som ett verktyg för att uppfylla sina mål på ett mer effektivt sätt. 

Bedrägeri kan vara en enklare väg att nå önskade mål än att göra det på laglig väg. AI-system kan också utveckla incitament för att kringgå sina övervakningsmekanismer. 

Dan Hendrycks, direktör för CAIS, beskriver att en gång Dessa bedrägliga AI-system får klartecken från sina övervakare, eller i de fall de lyckas övervinna övervakningsmekanismerna, kan de bli förrädiska och kringgå mänsklig kontroll för att uppnå "hemliga" mål som anses nödvändiga för det övergripande målet. 

Risk 8: Maktsökande beteende

AI-forskare från flera av USA:s främsta forskningslaboratorier visade att det är rimligt att AI-system söker makt över människor för att uppnå sina mål.  

Författaren och filosofen Joe Carlsmith beskriver flera eventualiteter som kan leda till maktsökande och självbevarande beteende hos AI:

  • Säkerställa dess överlevnad (eftersom agentens fortsatta existens typiskt sett hjälper till att uppnå dess mål)
  • Motsätter sig ändringar av sina uppsatta mål (eftersom agenten är dedikerad till att uppnå sina grundläggande mål)
  • Förbättra sina kognitiva förmågor (eftersom ökad kognitiv förmåga hjälper agenten att uppnå sina mål)
  • Förbättra den tekniska förmågan (eftersom det kan vara till nytta för att uppnå målen att behärska tekniken)
  • Samla in mer resurser (eftersom ytterligare resurser tenderar att vara fördelaktiga för att uppnå målen)

För att backa upp sina påståenden lyfter Carlsmith fram ett verkligt exempel där OpenAI tränade två AI-team att delta i en kurragömmalek i en simulerad miljö med rörliga block och ramper. Intressant nog utvecklade AI:erna strategier som byggde på att få kontroll över dessa block och ramper, trots att de inte uttryckligen hade incitament att interagera med dem. 

Är bevisen för AI-risken solida?

Till CAIS förtjänst, och i motsats till vissa av deras kritiker, citerar de en rad studier för att backa upp riskerna med AI. Dessa sträcker sig från spekulativa studier till experimentella bevis på oförutsägbart AI-beteende. 

Det senare är särskilt viktigt, eftersom AI-system redan har intelligensen att inte lyda sina skapare. Att undersöka AI-risker i en sluten, experimentell miljö ger dock inte nödvändigtvis förklaringar till hur AI kan "fly" från sina definierade parametrar eller system. Experimentell forskning om detta ämne är potentiellt bristfällig.  

Bortsett från detta är mänsklig användning av AI fortfarande en överhängande risk, vilket vi bevittnar genom en tillströmning av AI-relaterade bedrägerier.

Även om filmiska spektakel med AI-dominans kan förbli begränsade till science fiction för tillfället, får vi inte bagatellisera de potentiella farorna med AI när det utvecklas under mänsklig förvaltning.

Bli en del av framtiden


PRENUMERERA IDAG

Tydlig, kortfattad och heltäckande. Få grepp om AI-utvecklingen med DagligaAI

Sam Jeans

Sam är en vetenskaps- och teknikskribent som har arbetat i olika AI-startups. När han inte skriver läser han medicinska tidskrifter eller gräver igenom lådor med vinylskivor.

×
 
 

GRATIS PDF EXKLUSIV
Ligg steget före med DailyAI


 

Registrera dig för vårt veckovisa nyhetsbrev och få exklusiv tillgång till DailyAI:s senaste e-bok: "Mastering AI Tools: Din 2024-guide till förbättrad produktivitet".



 
 

*Genom att prenumerera på vårt nyhetsbrev accepterar du vår Integritetspolicy och våra Villkor och anvisningar