Tre debatter som AI-bransjen står overfor: Intelligens, fremskritt og sikkerhet

22. mars 2024

Det berømte ordtaket: "Jo mer vi vet, jo mer vet vi ikke", gjelder også for kunstig intelligens.

Jo mer vi lærer om kunstig intelligens, desto mindre ser det ut til at vi vet med sikkerhet.

Eksperter og industriledere er ofte i bitter strid om hvor AI befinner seg nå og hvor den er på vei. De klarer ikke å enes om tilsynelatende elementære begreper som maskinintelligens, bevissthet og sikkerhet.

Vil maskinene en dag overgå intellektet til sine menneskelige skapere? Går utviklingen av kunstig intelligens stadig raskere mot en teknologisk singularitet, eller står vi på randen av en AI-vinter?

Og kanskje aller viktigst: Hvordan kan vi sørge for at utviklingen av kunstig intelligens forblir trygg og nyttig når ekspertene ikke er enige om hva fremtiden bringer?

AI er omgitt av en tåke av usikkerhet. Det beste vi kan gjøre, er å utforske perspektiver og komme frem til informerte, men likevel flytende synspunkter for en bransje i stadig endring.

Første debatt: AI-intelligens

Med hver ny generasjon generative AI-modeller følger en fornyet debatt om maskinintelligens.

Elon Musk satte nylig fart i debatten om AI-intelligens da han sa: "AI vil sannsynligvis være smartere enn noe enkelt menneske neste år. Innen 2029 er AI sannsynligvis smartere enn alle mennesker til sammen."

Musk ble umiddelbart bestridt av Metas AI-sjef og fremtredende AI-forsker, Yann LeCun, som sa: "Nei. Hvis det var tilfelle, ville vi hatt AI-systemer som kunne lære seg selv å kjøre bil på 20 timers øvelse, som enhver 17-åring. Men vi har fortsatt ikke helt autonom, pålitelig selvkjøring, selv om vi (du) har millioner av timer med *merkede* treningsdata."

Denne samtalen er bare et mikrokosmos av et tvetydig tomrom i AI-ekspertenes og -ledernes oppfatning.

Det er en samtale som fører til en uendelig tolkningsspiral med lite konsensus, noe som demonstreres av de svært ulike synspunktene til innflytelsesrike teknologer det siste året eller så (info fra Forbedre nyhetene):

  • Geoffrey Hinton: "Digital intelligens" kan overhale oss innen "5 til 20 år".
  • Yann LeCun: Det er mer sannsynlig at samfunnet får kunstig intelligens på katte- eller hundenivå mange år før kunstig intelligens på menneskenivå.
  • Demis Hassabis: Vi kan oppnå "noe som ligner AGI eller AGI-lignende i løpet av det neste tiåret".
  • Gary Marcus: "[V]i vil til slutt nå AGI ... og muligens før slutten av dette århundret."
  • Geoffrey Hinton: "Nåværende AI som GPT-4 "overgår en person" i generell kunnskap og kan snart også gjøre det i resonnement.
  • Geoffrey Hinton: AI er "veldig nærme nå" og vil bli "mye mer intelligent enn oss i fremtiden".
  • Elon Musk: "For første gang vil vi ha noe som er smartere enn det smarteste mennesket."
  • Elon Musk: "Jeg vil bli overrasket om vi ikke har AGI innen [2029]."
  • Sam Altman: "[V]i kan få til ekte AGI i løpet av det neste tiåret."
  • Yoshua Bengio: "Overmenneskelig AI" vil bli oppnådd "mellom noen få år og et par tiår".
  • Dario Amodei: AI på "menneskelig nivå" kan oppstå om "to eller tre år".
  • Sam Altman: AI kan overgå "ekspertnivået" på de fleste felt i løpet av et tiår.
  • Gary Marcus: "Jeg [tror] ikke vi er så nær maskiner som er mer intelligente enn oss."

Ingen av partene har entydig rett eller galt i debatten om maskinintelligens. Det avhenger av ens subjektive tolkning av intelligens og hvordan AI-systemer måler seg mot denne definisjonen.

Pessimister kan peke på AIs potensielle risikoer og utilsiktede konsekvenser, og understreker behovet for forsiktighet. De hevder at etter hvert som AI-systemene blir mer autonome og kraftfulle, kan de utvikle mål og atferd som ikke samsvarer med menneskelige verdier, noe som kan føre til katastrofale utfall.

Optimister kan derimot fokusere på AIs transformative potensial og se for seg en fremtid der maskiner jobber sammen med mennesker for å løse komplekse problemer og drive frem innovasjon. De kan bagatellisere risikoen og hevde at bekymringene for superintelligent AI i stor grad er hypotetiske, og at fordelene oppveier risikoen.

Problemets kjerne ligger i at det er vanskelig å definere og kvantifisere intelligens, særlig når man sammenligner så ulike enheter som mennesker og maskiner.

For eksempel kan en flue har avanserte nervekretser og kan lykkes i å unnslippe våre forsøk på å slå eller fange den, og er dermed smartere enn oss på dette snevre området. Slike sammenligninger er potensielt grenseløse.

Velg dine eksempler på intelligens, og alle kan ha rett eller ta feil.

Debatt to: akselererer eller bremser AI?

Vil AI-utviklingen akselerere eller bremse opp?

Noen hevder at vi befinner oss midt i en AI-revolusjon, og at gjennombruddene skjer med stormskritt. Andre hevder at utviklingen har nådd et platå, og at feltet står overfor store utfordringer som kan bremse innovasjonen i årene som kommer.

Generativ AI er kulminasjonen av flere tiår med forskning og milliarder i finansiering. Da ChatGPT landet i 2022, hadde teknologien allerede nådd et høyt nivå i forskningsmiljøer, noe som satte listen høyt og kastet samfunnet ut på dypt vann.

Den resulterende hypen førte også til enorm finansiering av nystartede AI-virksomheter, fra Anthropic til Inflection og Stability AI til MidJourney.

Dette, kombinert med en enorm intern innsats fra Silicon Valley-veteranene Meta, Google, Amazon, Nvidia og Microsoft, resulterte i en rask spredning av AI-verktøy. GPT-3 ble raskt omdannet til tungvekteren GPT-4. I mellomtiden ble konkurrenter som LLM-er som Claude 3 Opus, xAI's Grok og Mistralog Metas modeller med åpen kildekode har også gjort seg gjeldende.

Noen eksperter og teknologer, som Sam Altman, Geoffrey Hinton, Yoshio Bengio, Demis Hassabis og Elon Musk, mener at AI-akselerasjonen bare så vidt har begynt.

Musk sa at generativ AI var som å "vekke demonen", mens Altman sa at AI-tankekontroll var nært forestående (noe Musk har bevist med nylige fremskritt innen Neuralink; se nedenfor for hvordan en mann spilte et parti sjakk bare ved hjelp av tanken).

På den annen side mener eksperter som Gary Marcus og Yann LeCun at vi møter veggen, og at generativ AI står overfor en introspektiv periode eller "vinter".

Dette kan skyldes praktiske hindringer, som økende energikostnader, begrensningene ved brute-force-beregninger, reguleringer og materialmangel.

Generativ AI er dyrt å utvikle og vedlikeholde, og er ikke enkelt å tjene penger på. Teknologiselskapene må finne måter å opprettholde tregheten på, slik at pengene fortsetter å strømme inn i bransjen.

Debatt tre: AI-sikkerhet

Diskusjonene om AI-intelligens og -fremskritt har også konsekvenser for AI-sikkerheten. Hvis vi ikke kan bli enige om hva som utgjør intelligens, eller hvordan vi skal måle den, hvordan kan vi da sikre at AI-systemer utformes og tas i bruk på en trygg måte?

Fraværet av en felles forståelse av intelligens gjør det utfordrende å etablere hensiktsmessige sikkerhetstiltak og etiske retningslinjer for utvikling av kunstig intelligens.

Å undervurdere AI-intelligens er å undervurdere behovet for sikkerhetskontroller og regulering av AI.

Hvis man derimot overvurderer eller overdriver AIs evner, kan det føre til en skjev oppfatning og risiko for overregulering. Dette kan føre til at Big Tech, som har bevist at de kan drive lobbyvirksomhet og utmanøvrere lovgivningen, får mer makt. Og når de gjør feil, kan de betale bøtene.

I fjor, langvarige X-debatter mellom Yann LeCun, Geoffrey Hinton, Max Tegmark, Gary Marcus, Elon Musk og en rekke andre prominente personer i AI-miljøet satte søkelyset på dype splittelser i AI-sikkerheten. Big Tech har jobbet hardt for å regulere seg selv, og har laget "frivillige retningslinjer" som det er tvilsomt om er effektive.

Kritikerne hevder videre at regulering gjør det mulig for Big Tech å forsterke markedsstruktureneDe vil gjøre seg kvitt disruptere og sette spillereglene i bransjen slik de selv ønsker.

LeCun mener at de eksistensielle risikoene ved kunstig intelligens er overdrevet og brukes som et røykteppe av Big Tech-selskaper for å presse frem reguleringer som vil kvele konkurransen og konsolidere kontrollen.

LeCun og hans støttespillere påpeker også at AIs umiddelbare risikoer, som feilinformasjon, forfalskninger og skjevheter, allerede skader mennesker og krever øyeblikkelig oppmerksomhet.

På den annen side har Hinton, Bengio, Hassabis og Musk slått alarm om de potensielle eksistensielle risikoene ved kunstig intelligens.

Bengio, LeCun og Hinton, ofte kalt "AIs gudfedre" for å ha utviklet nevrale nettverk, dyp læring og andre AI-teknikker på 90-tallet og begynnelsen av 2000-tallet, er fortsatt innflytelsesrike i dag. Hinton og Bengio, som generelt har sammenfallende synspunkter, deltok nylig i et sjeldent møte mellom amerikanske og kinesiske forskere ved Internasjonal dialog om AI-sikkerhet i Beijing.

Møtet kulminerte med i en uttalelse: "Under den kalde krigen bidro internasjonal vitenskapelig og statlig koordinering til å avverge en termonukleær katastrofe. Menneskeheten må igjen samordne seg for å avverge en katastrofe som kan oppstå som følge av en teknologi uten sidestykke."

Det må sies at Bengio og Hinton ikke har noen åpenbar økonomisk tilknytning til Big Tech, og at de ikke har noen grunn til å ta for stor risiko med AI.

Hinton tok selv opp dette poenget i en X-krangel med LeCun og den tidligere medgrunnleggeren av Google Brain, Andrew Ng, og understreket at han forlot Google for å kunne snakke fritt om AI-risikoer.

Mange store forskere har opp gjennom årene stilt spørsmål ved sikkerheten ved kunstig intelligens, blant annet den avdøde Stephen Hawking, som så på teknologien som en eksistensiell risiko.

Denne virvlende blandingen av polemiske meningsutvekslinger gir lite rom for folk som ønsker å innta en mellomposisjon, noe som forsterker bildet av generativ AI som en polariserende teknologi.

Regulering av kunstig intelligens har i mellomtiden blitt et geopolitisk spørsmålUSA og Kina har begynt å samarbeide om AI-sikkerhet, til tross for økende spenninger på andre områder.

På samme måte som ekspertene er uenige om når og hvordan AI vil overgå menneskets evner, er de også uenige i sine vurderinger av risikoen og utfordringene ved å utvikle trygge og nyttige AI-systemer.

Debattene rundt kunstig intelligens er ikke bare av prinsipiell eller filosofisk karakter - de er også et spørsmål om styring.

Når ekspertene er rykende uenige om selv de grunnleggende elementene i AI-intelligens og -sikkerhet, kan ikke regulering håpe på å tjene folks interesser.

Å skape konsensus vil kreve tøffe erkjennelser fra eksperter, AI-utviklere, myndigheter og samfunnet som helhet.

Men i tillegg til mange andre utfordringer vil det å styre AI inn i fremtiden kreve at noen teknologiledere og eksperter innrømmer at de tok feil. Og det kommer ikke til å bli lett.

Bli med i fremtiden


ABONNER I DAG

Tydelig, kortfattet og omfattende. Få et grep om AI-utviklingen med DagligAI

Sam Jeans

Sam er en vitenskaps- og teknologiskribent som har jobbet i ulike oppstartsbedrifter innen kunstig intelligens. Når han ikke skriver, leser han medisinske tidsskrifter eller graver seg gjennom esker med vinylplater.

×

GRATIS PDF EKSKLUSIV
Hold deg i forkant med DailyAI

Meld deg på vårt ukentlige nyhetsbrev og få eksklusiv tilgang til DailyAIs nyeste e-bok: "Mastering AI Tools: Din 2024-guide til økt produktivitet".

*Ved å abonnere på vårt nyhetsbrev aksepterer du vår Retningslinjer for personvern og vår Vilkår og betingelser