En storstilt undersøkelse blant 2700 AI-forskere avdekket delte meninger om risikoen ved AI.
Den undersøkelse utført av AI Impacts, den største i sitt slag, involverte fagfolk som har publisert forskning på seks ledende AI-konferanser.
Deltakerne ble bedt om å komme med innspill om fremtidige milepæler innen kunstig intelligens og deres samfunnsmessige konsekvenser.
Nesten 58% av disse forskerne mener at det er en 5% sjanse for at mennesket blir utryddet eller lignende alvorlige utfall på grunn av AI-fremskritt.
Andre funn tyder på at AI har en 50% eller høyere sannsynlighet for å mestre oppgaver som spenner fra å komponere hitparademusikk til å utvikle et komplett nettsted for betalingsbehandling i løpet av det neste tiåret.
Mer komplekse oppgaver, som å installere elektriske ledninger eller løse matematiske problemer, forventes å ta lengre tid, selv om DeepMind demonstrerte nylig AIs overlegne ytelse når det gjelder å takle cap set- og bin packing-problemer.
Forskerne anslår også at det er 50% sjanse for at kunstig intelligens vil overgå menneskets prestasjoner i alle oppgaver innen 2047, og at alle menneskelige jobber vil være automatisert innen 2116. Dette forutsetter at vitenskapen "forblir uforstyrret".
Resultatene er riktignok blandede, men det er rimelig å si at AI-risikoen ikke anses å ha nådd en kritisk masse ennå.
Katja Grace fra Machine Intelligence Research Institute i California oppgitt av studien"Det er et viktig signal om at de fleste AI-forskere ikke finner det helt usannsynlig at avansert AI ødelegger menneskeheten."
Her er en liste over de viktigste statistikkene og funnene:
- Sannsynligheten for at AI oppnår milepæler innen 2028: Det er en 50% sjanse for at AI-systemer vil være i stand til å konstruere et nettsted for betalingsbehandling, lage en sang som ikke kan skilles fra en populær musikers, og laste ned og finjustere en stor språkmodell (LLM).
- Forutsigelser av AI-ytelse på menneskelig nivå: Studien anslår at det innen 2027 er 10% sjanse for at maskiner uten hjelpemidler vil utkonkurrere mennesker i alle oppgaver, og innen 2047 er det 50% sjanse for at de vil gjøre det bedre enn mennesker. Prognosen for 2047 er 13 år tidligere enn den som ble laget i 2022.
2. Tiden til de fleste smale milepæler har gått ned siden 2022, noen med mye. AI-forskere forventes å være automatiserbare ~25 år tidligere enn året før. Tiden til NYT-bestselgende skjønnlitteratur falt ~9 år. pic.twitter.com/Npmd7QNW8g
- AI Impacts (@AIImpacts) 4. januar 2024
- Automatisering av menneskelige yrker: Det er 10% sjanse for at alle menneskelige yrker blir fullt ut automatiserbare innen 2037 og 50% sjanse innen 2116, noe som er en fremgang fra spådommen fra 2164 i 2022.
- Utsikter for AIs langsiktige verdi: 68,3% av respondentene mener at det er mer sannsynlig med gode enn dårlige resultater av "overmenneskelig AI", men 48% av disse optimistene ser fortsatt minst 5% sjanse for ekstremt dårlige resultater, som at mennesket blir utryddet. I mellomtiden ser 59% av pessimistene en 5% eller større sannsynlighet for ekstremt gode resultater.
- Bekymringer over AI-drevne scenarier: Over 70% av forskerne uttrykker bekymring for spørsmål som dyp forfalskning, manipulering av opinionen og konstruerte våpen. Deep fakes skapte mest bekymring, med 86% av forskerne som uttrykte bekymring.
- Sannsynlighetsestimater for AI-risiko: Mellom 37,8% og 51,4% av respondentene mener at det er minst 10% sjanse for at avansert AI kan føre til så alvorlige konsekvenser som utryddelse av mennesker.
3. Median 5% eller mer på avansert AI som fører til utryddelse av mennesket eller lignende. Omtrent en tredjedel til halvparten gir over 10%, på tvers av fire spørsmål. (Vi spør ofte om et tema på ulike måter for å sikre robusthet - her får vi konsistente svar). pic.twitter.com/g7bPXAXABs
- AI Impacts (@AIImpacts) 4. januar 2024
- Sannsynlighetsestimater for HLMI (High-Level Machine Intelligence): Den samlede prognosen for 2023 forutser en 50%-sjanse for å oppnå HLMI innen 2047, noe som er en betydelig endring fra prognosen for 2060 i 2022.
- Sannsynlighet for full automatisering av arbeid (FAOL): Prognosen for 2023 anslår en 50%-sjanse for FAOL innen 2116, 48 år tidligere enn en lignende spådom i 2022.
- Forskning på AI-sikkerhet: Rundt 70% av deltakerne i undersøkelsen mener at forskning på AI-sikkerhet bør prioriteres høyere enn i dag.
6. 70% av deltakerne ønsker at forskning på KI-sikkerhet skal prioriteres høyere. "Mye mer" er en kraftig økning siden 2016. (Husk at dette er en undersøkelse blant AI-forskere generelt, ikke sikkerhetsforskere). pic.twitter.com/DvE8HeWCXY
- AI Impacts (@AIImpacts) 4. januar 2024
Umiddelbare risikoer overskygger de langsiktige
Utover de eksistensielle risikoene viser undersøkelsen at et stort flertall av forskerne har umiddelbare bekymringer knyttet til kunstig intelligens.
Over 70% uttrykker betydelig bekymring for AI-drevne problemer som dyp forfalskning, manipulering av opinionen, konstruerte våpen, autoritær kontroll og eskalerende økonomisk ulikhet.
Émile Torres ved Case Western Reserve University i Ohio advarer spesielt mot AIs rolle i å spre desinformasjon om kritiske temaer og dens innvirkning på demokratisk styring, og sier: "Vi har allerede teknologien, her og nå, som kan undergrave [det amerikanske] demokratiet på en alvorlig måte."
Politiske kampanjer lansert av amerikanske og kanadiske politikere har allerede brukt kunstig intelligens til å skape bilder, og AI-robotsamtaler blir for tiden brukt for å mobilisere velgere.
En annen viktig hendelsen var Slovakias nylige valg, hvor, jtte døgn før valget dukket det opp et forfalsket lydklipp på sosiale medier der sentrale politikere angivelig diskuterte stemmekjøpstaktikk.
Den utløste stor forvirring i en kritisk stille periode før valget. Tidspunktet for utgivelsen gjorde det nesten umulig å motvirke effekten av den raskt.
I den senere tid har AI-genererte svertekampanjer rettet seg mot omstridt valg i Bangladeshmed innhold som tar sikte på å diskreditere motparten ved å hevde at de støtter bombing av Gaza, et sensitivt tema i et land med muslimsk majoritet.
Tidslinjer for AI-risiko er omdiskutert
Sammenligninger mellom de kortsiktige og langsiktige konsekvensene av kunstig intelligens ble gjenstand for heftig debatt da Center for AI Safety (CAIS) gikk ut med en dramatisk uttalelse i 2023 og sammenlignet risikoen for AI med pandemier og atomkrig.
Mediene har skrevet om de verste spådommene for utviklingen av kunstig intelligens, fra morderiske roboter til droner ute av kontroll på slagmarken.
Så langt er det hvordan mennesker bruker AI som utgjør en risiko - et tilfelle av "AI dreper ikke mennesker, det er mennesker som gjør det" - og bekymring for eksistensielle risikoer blir noen ganger sett på som å overskygge det som skjer akkurat nå.
Særlig deep fakes har vist seg å ha konkrete konsekvenser for samfunnet.
Det er et annet lag i dette, som Yann LeCun, en fremtredende skikkelse innen kunstig intelligens, har gått i spissen for, og som antyder at større teknologiselskaper kan overdriver disse risikoene for å påvirke regulatoriske tiltak i sin favør.
Frykten, som ofte fremmes av de store teknologibedriftene, kan være et strategisk knep for å fremme strenge reguleringer, noe som kan være til ulempe for mindre enheter og initiativer med åpen kildekode.
Dette avdekker en mer subtil fare - noen få store selskapers potensielle monopolisering av AI, noe som potensielt kan kvele innovasjon og mangfold innen AI.
Det betyr at de store aktørene på området, som Google og OpenAI, kan drive bransjen i sin egen retning så lenge de kan tilfredsstille kravene til etterlevelse.
Eksistensielle risikoer - hva sier dokumentasjonen?
Dialogen om risiko svinger ofte mellom to ytterpunkter: skepsis og alarmisme. Så hvilke faktiske bevis er det som tyder på at AI kan drepe oss eller på annen måte ødelegge planeten?
Ideen om AI-våpen er kanskje det mest nærliggende eksemplet man kan forestille seg. Her kan AI-systemer drepe mennesker med begrenset tilsyn, eller trusselaktører kan bruke teknologien til å utvikle katastrofalt effektive våpen.
Droner er utvilsomt allerede i stand til å ødelegge mål med minimal menneskelig innsats, noe som utvilsomt har skjedd i Israel-Palestina- og Russland-Ukraina-konfliktene allerede.
En mer subtil drivkraft bak den eksistensielle risikoen for KI er svekkelse. Bekymringen her handler ikke bare om å miste jobber til roboter, men om å miste viktige menneskelige evner og kreativitet. En vanlig analogi er filmen WALL-E, der blob-lignende mennesker får roboter til å gjøre som de vil, på bekostning av selve jorden.
Det er noen bevis at LLM-programmer som ChatGPT svekker studentenes kritiske tenkning, selv om det er altfor tidlig å si noe sikkert om det.
Utdanningsinstitusjonene er opptatt av å utnytte fordelene med kunstig intelligens uten å ta livet av den menneskeledede akademia, og flere høyt profilerte institusjoner har gitt betinget støtte til studenters bruk av teknologien.
En annen rimelig veldokumentert risiko er at kunstig intelligens utvikler nye mål, som fremhevet av forskning fra University of Cambridge og DeepMindnoe som kan få utilsiktede og potensielt skadelige konsekvenser for samfunnet.
Emergente mål kan føre til at svært intelligente AI-er etablerer sine egne uforutsigbare mål, og kanskje til og med unnslipper sin egen arkitektur for å "infisere" andre systemer.
Til syvende og sist er AIs potensial for dramatisk og voldelig utryddelse svært spekulativt, og det finnes få eksempler eller bevis på at dette kan skje snart. Det finnes imidlertid stadig flere eksperimentelle bevis på at autonome kunstige intelligenser har nye mål og andre potensielle metoder for å påføre skade.
Foreløpig har vi nok av umiddelbare risikoer å håndtere, og la oss ikke glemme at disse utfordringene vil utvikle seg parallelt med klimaendringer, tap av leveområder, befolkningskriser og andre risikoer på makronivå.
Samtidig som det er stor begeistring for hva kunstig intelligens kan utrette, er det også en påtagelig bekymring for de umiddelbare risikoene og langsiktige konsekvensene.
Denne siste undersøkelsen er en påminnelse om at diskursen om kunstig intelligens ikke bør dreie seg om fjerne eksistensielle risikoer på bekostning av de umiddelbare utfordringene og etiske dilemmaene som denne transformative teknologien medfører.
Etter hvert som AI gjør fremskritt, blir det avgjørende å finne en balanse i denne debatten for å styre utviklingen i en retning som er gunstig og trygg for menneskeheten.