En storstilet undersøgelse, der omfattede 2.700 AI-forskere, afslørede delte meninger om risikoen ved AI.
Den undersøgelse udført af AI Impactsden største af sin slags, involverede fagfolk, der har offentliggjort forskning på seks førende AI-konferencer.
Deltagerne blev bedt om at give deres mening til kende om fremtidige AI-milepæle og deres samfundsmæssige konsekvenser.
Især mener næsten 58% af disse forskere, at der er en 5% chance for menneskelig udryddelse eller lignende alvorlige resultater på grund af AI-fremskridt.
Andre resultater tyder på, at AI har en 50% eller højere sandsynlighed for at mestre opgaver lige fra at komponere hitparademusik til at udvikle et komplet websted til betalingsbehandling inden for det næste årti.
Mere komplekse opgaver, som at installere elektriske ledninger eller løse matematiske problemer, forventes dog at tage længere tid. DeepMind demonstrerede for nylig AI's overlegne præstation i håndteringen af cap set og bin packing-problemer.
Forskerne vurderer også, at der er 50% chance for, at AI overgår menneskets præstationer i alle opgaver i 2047, og at alle menneskelige jobs er automatiseret i 2116. Dette er afhængigt af, at videnskaben "forbliver uforstyrret".
Resultaterne er bestemt blandede, men det er rimeligt at sige, at AI-risici ikke anses for at have nået en kritisk masse endnu.
Katja Grace fra Machine Intelligence Research Institute i Californien angivet i undersøgelsen"Det er et vigtigt signal, at de fleste AI-forskere ikke finder det helt usandsynligt, at avanceret AI ødelægger menneskeheden."
Her er en liste over de vigtigste statistikker og resultater:
- Sandsynligheden for, at AI når milepæle inden 2028: Der er en 50% chance for, at AI-systemer vil være i stand til at konstruere et betalingsbehandlingssted, skabe en sang, der ikke kan skelnes fra en populær musikers, og downloade og finjustere en stor sprogmodel (LLM).
- Forudsigelser af AI-præstationer på menneskeligt niveau: Undersøgelsen anslår en chance på 10% i 2027 og en chance på 50% i 2047 for, at maskiner uden hjælpemidler vil udkonkurrere mennesker i alle opgaver. Prognosen for 2047 er 13 år tidligere end den, der blev lavet i 2022.
2. Tiden til de fleste snævre milepæle er faldet siden 2022, nogle meget. AI-forskere forventes at være automatiserbare ~25 år tidligere end året før. Tiden til NYT-bestseller er faldet med ca. 9 år. pic.twitter.com/Npmd7QNW8g
- AI Impacts (@AIImpacts) 4. januar 2024
- Automatisering af menneskelige erhverv: Der er en 10% chance for, at alle menneskelige erhverv bliver fuldt automatiserbare i 2037 og en 50% chance i 2116, hvilket er en fremgang fra forudsigelsen i 2164 i 2022.
- Udsigt til AI's langsigtede værdi: 68,3% af de adspurgte mener, at gode resultater af "overmenneskelig AI er mere sandsynlige end dårlige, men 48% af disse optimister ser stadig mindst en 5% chance for ekstremt dårlige resultater som menneskelig udryddelse. I mellemtiden ser 59% af pessimisterne en 5% eller større sandsynlighed for ekstremt gode resultater.
- Bekymringer over AI-drevne scenarier: Over 70% af forskerne udtrykker bekymring over emner som deep fakes, manipulation af den offentlige mening og konstruerede våben. Deep fakes skabte mest alarm, idet 86% af forskerne udtrykte bekymring.
- Sandsynlighedsestimater for AI-risici: Mellem 37,8% og 51,4% af de adspurgte mener, at der er mindst 10% chance for, at avanceret AI kan føre til så alvorlige resultater som udryddelse af mennesker.
3. Median 5% eller mere på avanceret AI, der fører til udryddelse af mennesker eller lignende. Omkring en tredjedel til halvdelen giver over 10% på tværs af fire spørgsmål. (Vi spørger ofte om et emne på forskellige måder for at opnå robusthed - her får vi ensartede svar). pic.twitter.com/g7bPXAXABs
- AI Impacts (@AIImpacts) 4. januar 2024
- Sandsynlighedsestimater for HLMI (High-Level Machine Intelligence): Den samlede prognose for 2023 forudsiger en 50% chance for at opnå HLMI i 2047, hvilket markerer et betydeligt skift fra 2060-forudsigelsen i 2022.
- Sandsynlighed for fuld automatisering af arbejdet (FAOL): Prognosen for 2023 anslår en 50% chance for FAOL i 2116, 48 år tidligere end en lignende forudsigelse i 2022.
- Forskning i AI-sikkerhed: Omkring 70% af deltagerne i undersøgelsen mener, at forskning i AI-sikkerhed bør prioriteres højere, end det er tilfældet i øjeblikket.
6. 70% af deltagerne vil gerne have, at forskning i AI-sikkerhed prioriteres højere. "Meget mere" er en stor stigning siden 2016. (Husk, at dette er en undersøgelse af AI-forskere generelt, ikke sikkerhedsforskere). pic.twitter.com/DvE8HeWCXY
- AI Impacts (@AIImpacts) 4. januar 2024
Umiddelbare risici overskygger de langsigtede
Ud over de eksistentielle risici fremhæver undersøgelsen, at et stort flertal af forskerne har umiddelbare bekymringer om AI.
Over 70% udtrykker betydelig bekymring over AI-drevne problemer som deep fakes, manipulation af den offentlige mening, konstruerede våben, autoritær kontrol og eskalerende økonomisk ulighed.
Émile Torres fra Case Western Reserve University i Ohio advarer specifikt om AI's rolle i spredningen af misinformation om kritiske emner og dens indvirkning på den demokratiske regeringsførelse og siger: "Vi har allerede teknologien, her og nu, som alvorligt kan underminere [det amerikanske] demokrati."
Politiske kampagner lanceret af amerikanske og canadiske politikere har allerede brugt AI til at skabe billeder, og AI-robocalls bliver i øjeblikket brugt til at tromme vælgere sammen.
En anden vigtig Det skete ved Slovakiets seneste valg, hvor, jKun 48 timer før valget dukkede der et forfalsket lydklip op på de sociale medier, hvor politiske nøglepersoner angiveligt diskuterede stemmekøbstaktik.
Det skabte stor forvirring i en kritisk periode med tavshed før valget. Tidspunktet for udgivelsen gjorde det næsten umuligt at modvirke dens virkninger.
For nylig var AI-genererede smædekampagner rettet mod Et stærkt omstridt valg i Bangladeshmed indhold, der sigter mod at miskreditere modparten ved at erklære deres støtte til bombning af Gaza, et følsomt emne i et land med muslimsk flertal.
Tidslinjer for AI-risiko debatteres
Sammenligninger mellem de kortsigtede og langsigtede virkninger af kunstig intelligens var kilde til heftig debat, da Center for AI Safety (CAIS) udsendte en dramatisk erklæring i 2023 og sammenlignede AI-risici med pandemier og atomkrig.
Det blev til en syndflod af medieomtale af de værste forudsigelser for AI-udviklingen, fra morderiske robotter til droner ude af kontrol på slagmarken.
Indtil videre er det den måde, mennesker bruger AI på, der udgør en risiko - et tilfælde af "AI dræber ikke mennesker, det gør mennesker" - og bekymring for eksistentielle risici ses nogle gange som noget, der overskygger det, der foregår lige nu.
Især deep fakes har vist sig at have håndgribelige konsekvenser for det menneskelige samfund.
Der er et andet lag i dette, som Yann LeCun, en fremtrædende figur inden for kunstig intelligens, står i spidsen for, og som foreslår, at større teknologivirksomheder måske overdrive disse risici for at påvirke lovgivningen til deres fordel.
Frygten, som ofte fremmes af big tech, kan være et strategisk kneb for at fremme strenge regler, som kan være til ulempe for mindre enheder og open source-initiativer.
Dette afslører en mere subtil fare - nogle få store virksomheders potentielle monopolisering af AI, hvilket potentielt kan kvæle innovation og mangfoldighed inden for AI.
Det efterlader de store aktører på området, som Google og OpenAI, til at skubbe branchen i deres egen retning, så længe de kan tilfredsstille kravene til overholdelse af reglerne.
Eksistentielle risici - hvad siger evidensen?
Dialogen om risici svinger ofte mellem to yderpunkter: skepticisme og alarmisme. Så hvilke faktiske beviser er der for, at AI kan slå os ihjel eller på anden måde ødelægge planeten?
Ideen om AI-våben er måske det mest umiddelbart tænkelige eksempel. Her kunne AI-systemer dræbe mennesker med begrænset tilsyn, eller trusselaktører kunne bruge teknologien til at udvikle katastrofalt effektive våben.
Droner er utvivlsomt allerede i stand til at ødelægge mål med minimal menneskelig indsats, som det uden tvivl er sket i Israel-Palæstina- og Rusland-Ukraine-konflikter allerede.
En mere subtil drivkraft for AI's eksistentielle risiko er svækkelse. Bekymringen handler ikke kun om at miste job til robotter, men om at miste vigtige menneskelige evner og kreativitet. En almindelig analogi er filmen WALL-E, hvor blob-lignende mennesker får robotter til at udføre deres opgaver på bekostning af selve Jorden.
Der er nogle beviser at LLM'er som ChatGPT udhuler de studerendes kritiske tænkning, selvom det er alt for tidligt at sige det med sikkerhed.
Uddannelsesinstitutionerne er ivrige efter at udnytte fordelene ved AI uden at tage livet af den menneskeledede akademiske verden, og flere højt profilerede institutioner har betinget godkendt studerendes brug af teknologien.
En anden rimelig veldokumenteret risiko er, at AI udvikler nye mål, som fremhævet af forskning fra University of Cambridge og DeepMindhvilket kan få utilsigtede og potentielt skadelige konsekvenser for det menneskelige samfund.
Emergente mål kan få meget intelligente AI'er til at opstille deres egne uforudsigelige mål og måske endda undslippe deres arkitektur for at "inficere" andre systemer.
I sidste ende er AI's potentiale for dramatisk og voldelig udryddelse meget spekulativt, og der er kun få eksempler eller beviser på, at det kan ske snart. Eksperimentelle beviser omkring nye mål og andre potentielle metoder til at påføre autonome AI'er skade vokser dog.
Indtil videre har vi masser af umiddelbare risici at håndtere, og lad os ikke glemme, at disse udfordringer vil udvikle sig parallelt med klimaforandringer, tab af levesteder, befolkningskriser og andre risici på makroniveau.
Mens der er begejstring over AI's potentielle resultater, er der også en mærkbar bekymring over dens umiddelbare risici og langsigtede konsekvenser.
Denne seneste undersøgelse tjener som en påmindelse om, at diskursen om AI ikke bør være skæv i retning af fjerne eksistentielle risici på bekostning af de umiddelbare udfordringer og etiske dilemmaer, som denne transformative teknologi medfører.
Efterhånden som AI udvikler sig, bliver det afgørende at finde en balance i denne debat for at styre udviklingen mod gavnlige og sikre resultater for menneskeheden.