2.778 forskare tar ställning till risker med AI - vad lär vi oss av deras svar?

4 januari 2024

Risker med AI

En storskalig undersökning som omfattade 2.700 AI-forskare avslöjade delade åsikter om riskerna med AI.

Den undersökning genomförd av AI Impactssom är den största i sitt slag, deltog yrkesverksamma som har publicerat forskning vid sex ledande AI-konferenser.

Deltagarna ombads att tycka till om framtida milstolpar inom AI och deras samhälleliga konsekvenser. 

Framför allt tror nästan 58% av dessa forskare att det finns en 5% chans för mänsklig utrotning eller liknande allvarliga resultat på grund av AI-framsteg.

Andra resultat tyder på att AI har en 50% eller högre sannolikhet att klara av uppgifter som sträcker sig från att komponera hitmusik till att utveckla en komplett webbplats för betalningshantering inom det närmaste decenniet. 

Mer komplexa uppgifter, som att installera elektriska ledningar eller lösa matematiska problem, förväntas ta längre tid, men DeepMind demonstrerade nyligen AI:s överlägsna prestanda när det gäller att hantera problemen med cap set och bin packing. 

Forskarna uppskattar också att det finns en 50% chans att AI överträffar människans prestationer i alla uppgifter 2047 och att alla mänskliga jobb automatiseras 2116. Detta förlitar sig på att vetenskapen "förblir oförstörd". 

Resultaten är visserligen blandade, men det är rimligt att säga att AI-riskerna inte anses ha nått en kritisk massa ännu. 

Katja Grace från Machine Intelligence Research Institute i Kalifornien anges i studien"Det är en viktig signal att de flesta AI-forskare inte tycker att det är särskilt osannolikt att avancerad AI förstör mänskligheten."

Här är en lista över de viktigaste statistiska uppgifterna och resultaten:

  • Sannolikhet för att AI uppnår milstolpar till 2028: Det finns en 50% chans att AI-system kommer att kunna bygga en webbplats för betalningshantering, skapa en låt som inte går att skilja från en populär musikers, och ladda ner och finjustera en stor språkmodell (LLM).
  • Förutsägelser om AI-prestanda på mänsklig nivå: Studien uppskattar en 10% chans till 2027 och en 50% chans till 2047 att maskiner utan hjälpmedel överträffar människor i alla uppgifter. Prognosen för 2047 är 13 år tidigare än den som gjordes 2022.

  • Automatisering av mänskliga yrken: Det finns en 10%-chans att alla mänskliga yrken blir helt automatiserbara 2037 och en 50%-chans 2116, vilket är ett steg framåt från förutsägelsen 2164 som gjordes 2022.
  • Utsikter för AI:s långsiktiga värde: 68,3% av de svarande anser att goda resultat från "övermänsklig AI är mer troliga än dåliga, men 48% av dessa optimister ser fortfarande minst en 5% chans för extremt dåliga resultat som mänsklig utrotning. Under tiden ser 59% av pessimisterna en 5% eller större sannolikhet för extremt bra resultat.
  • Oro över AI-drivna scenarier: Över 70% av forskarna uttrycker oro över frågor som djupa förfalskningar, manipulation av den allmänna opinionen och konstruerade vapen. Deep fakes orsakade mest oro, med 86% av forskarna som uttryckte oro. 
  • Sannolikhetsuppskattningar för AI-risker: Mellan 37,8% och 51,4% av respondenterna tror att det finns minst 10% chans att avancerad AI kan leda till så allvarliga resultat som utrotning av människor.

  • Sannolikhetsuppskattningar för HLMI (High-Level Machine Intelligence): Den aggregerade prognosen för 2023 förutspår en 50%-chans att uppnå HLMI 2047, vilket innebär en betydande förändring från 2060-prognosen som gjordes 2022.
  • Sannolikhet för fullständig automatisering av arbetet (FAOL): Prognosen för 2023 uppskattar en 50% chans för FAOL år 2116, 48 år tidigare än en liknande förutsägelse som gjordes 2022.
  • Forskning om AI-säkerhet: Cirka 70% av deltagarna i undersökningen anser att säkerhetsforskning inom AI bör prioriteras högre än vad som är fallet idag.

De omedelbara riskerna överskuggar de långsiktiga

Utöver de existentiella riskerna visar undersökningen att en betydande majoritet av forskarna känner en omedelbar oro för AI.

Över 70% uttrycker betydande oro över AI-drivna frågor som djupa förfalskningar, manipulation av den allmänna opinionen, konstruerade vapen, auktoritär kontroll och eskalerande ekonomisk ojämlikhet. 

Émile Torres vid Case Western Reserve University i Ohio varnar särskilt för AI:s roll när det gäller att sprida desinformation om kritiska ämnen och dess inverkan på demokratisk styrning och säger: "Vi har redan tekniken, här och nu, som allvarligt kan undergräva [den amerikanska] demokratin." 

Politiska kampanjer som lanserats av amerikanska och kanadensiska politiker har redan använt AI för att skapa bilder, och AI robocalls används för närvarande för att trumma upp väljare. 

En annan viktig händelse var Slovakiens senaste val, där, jnbart 48 timmar före vallokalerna spreds ett förfalskat ljudklipp på sociala medier där politiska nyckelpersoner påstods diskutera taktik för att köpa röster.

Det utlöste en utbredd förvirring under en kritisk tystnadsperiod före valet. Tidpunkten för offentliggörandet gjorde det nästan omöjligt att snabbt motverka dess effekter. 

På senare tid har AI-genererade smutskastningskampanjer riktats mot hett omtvistat bangladeshiskt valmed innehåll som syftade till att misskreditera motståndarpartiet genom att ange deras stöd för bombning av Gaza, ett känsligt ämne i ett land med muslimsk majoritet. 

Tidsgränser för AI-risker debatteras

Jämförelser mellan de kortsiktiga och långsiktiga effekterna av AI var källan till en häftig debatt när Center for AI Safety (CAIS) släppte ett dramatiskt uttalande 2023 där AI-risker jämförs med pandemier och kärnvapenkrig. 

Därefter följer en störtflod av medierapportering som diskuterar de värsta förutsägelserna för AI-utvecklingen, från mordiska robotar till okontrollerbara drönare på slagfältet. 

Hittills är det hur människor använder AI som utgör risker - ett fall av "AI dödar inte människor, det gör människor" - och oro för existentiella risker ses ibland som att de överskuggar det som händer just nu.

Särskilt djupa förfalskningar har visat sig ha påtagliga effekter på det mänskliga samhället.

AI Explosion i Pentagon
Denna falska AI-genererade bild av en explosion vid Pentagon tillfälligt påverkade finansmarknaderna i början av 2023. Källa: X.

Det finns ett annat lager av detta, som leds av Yann LeCun, en framstående person inom AI, som föreslår att större teknikföretag kan överdriva dessa risker att påverka regleringsåtgärder till deras fördel. 

Rädslan, som ofta drivs av stora teknikföretag, kan vara ett strategiskt knep för att uppmuntra stränga regleringar, vilket kan missgynna mindre enheter och initiativ med öppen källkod. 

Detta avslöjar en mer subtil fara - ett fåtal stora företags potentiella monopolisering av AI, vilket potentiellt kan kväva innovation och mångfald inom AI.

Det gör att de stora aktörerna på området, som Google och OpenAI, kan driva branschen i sin egen riktning så länge de kan uppfylla kraven på efterlevnad.

Existentiella risker - vad säger bevisen?

Dialogen om risker pendlar ofta mellan två ytterligheter: skepticism och alarmism. Så vilka faktiska bevis finns det som tyder på att AI kan döda oss eller på annat sätt förstöra planeten?

Tanken på AI-vapen är kanske det mest överhängande tänkbara exemplet. Här skulle AI-system kunna döda människor med begränsad tillsyn, eller så skulle hotaktörer kunna använda tekniken för att utveckla katastrofalt effektiva vapen. 

Drönare är utan tvekan redan kapabla att förstöra mål med minimal mänsklig insats, vilket utan tvekan har skett i Israel-Palestina- och Ryssland-Ukraina-konflikterna redan.

Det obemannade flygplanet XQ-58A Valkyrie blev helt AI-automatiserad år 2023. Källa: Wikimedia Commons: Wikimedia Commons.

En mer subtil drivkraft för AI:s existentiella risk är försvagning. Här handlar det inte bara om att förlora jobb till robotar, utan om att förlora viktiga mänskliga förmågor och kreativitet. En vanlig analogi är filmen WALL-E, där klumpliknande människor har robotar som gör vad de vill, på bekostnad av själva jorden.

Det finns vissa bevis att LLM-program som ChatGPT urholkar studenternas kritiska tänkande, även om det är alldeles för tidigt att säga säkert.

Utbildningsinstitutioner är angelägna om att utnyttja fördelarna med AI utan att ta död på den människoledda akademiska världen, och flera högprofilerade institutioner har villkorligt godkänt studenternas användning av tekniken.

WALL-E AI
WALL-E skildrar ett populärt exempel på AI- eller teknikrelaterad "försvagning".

En annan tämligen väldokumenterad risk är att AI utvecklar nya mål, vilket lyfts fram av forskning från University of Cambridge och DeepMind, vilket kan få oavsiktliga och potentiellt skadliga konsekvenser för det mänskliga samhället.

Emergenta mål skulle kunna innebära att högintelligenta AI:n sätter upp sina egna oförutsägbara mål och kanske till och med lämnar sin arkitektur för att "infektera" andra system. 

I slutändan är AI:s potential för dramatisk och våldsam utrotning mycket spekulativ, och det finns få exempel eller bevis på att detta skulle kunna hända snart. Experimentella bevis kring framväxande mål och andra potentiella metoder för autonoma AI att orsaka skada växer dock.

För tillfället har vi många omedelbara risker att hantera, och vi får inte glömma att dessa utmaningar kommer att utvecklas parallellt med klimatförändringar, förlust av livsmiljöer, befolkningskriser och andra risker på makronivå.

Samtidigt som det finns en entusiasm över AI:s potentiella framgångar finns det också en påtaglig oro för dess omedelbara risker och långsiktiga konsekvenser. 

Den senaste undersökningen är en påminnelse om att diskussionen om AI inte får förskjutas mot avlägsna existentiella risker på bekostnad av de omedelbara utmaningar och etiska dilemman som denna omvälvande teknik innebär. 

I takt med att AI utvecklas blir det viktigt att hitta en balans i denna debatt för att kunna styra utvecklingen mot gynnsamma och säkra resultat för mänskligheten.

Bli en del av framtiden


PRENUMERERA IDAG

Tydlig, kortfattad och heltäckande. Få grepp om AI-utvecklingen med DagligaAI

Sam Jeans

Sam är en vetenskaps- och teknikskribent som har arbetat i olika AI-startups. När han inte skriver läser han medicinska tidskrifter eller gräver igenom lådor med vinylskivor.

×

GRATIS PDF EXKLUSIV
Ligg steget före med DailyAI

Registrera dig för vårt veckovisa nyhetsbrev och få exklusiv tillgång till DailyAI:s senaste e-bok: "Mastering AI Tools: Din 2024-guide till förbättrad produktivitet".

*Genom att prenumerera på vårt nyhetsbrev accepterar du vår Integritetspolicy och våra Villkor och anvisningar