Kampen mellom "AI-gudfedrene" - er AI risikabelt eller ikke?!

2. november 2023
KI-risiko

AI er risikabelt, ikke sant? Det er det vi alle har blitt fortalt det siste året. Men ikke alle er enige, inkludert noen toppforskere. 

X har vært preget av diskusjoner om hvorvidt KI utgjør en reell eksistensiell risiko. Vi snakker ikke om feilinformasjon eller dyp forfalskning - selv om dette allerede er ille - men om risikoer på linje med atomkatastrofer og pandemier.

Denne debatten har blitt ledet av AI-risikoskeptikeren og Metas AI-sjef Yann LeCun, som regnes som en av de såkalte "AI-gudfedrene" sammen med Yoshua Bengio og Geoffrey Hinton. 

I LeCuns skuddlinje står OpenAI-sjef Sam Altman, DeepMind-sjef Demis Hassabis og Anthropic-sjef Dario Amode, som LeCun beskyldte for "massiv lobbyvirksomhet".

LeCun er spesielt bekymret for at store teknologibyråkrater øker praten rundt risiko og misbruk av AI for å få myndighetene til å låse bransjen til deres fordel.

Big tech har tenner til å håndtere regulering, mens mindre selskaper og open source-utviklere ikke har det. LeCun stiller seg også tvilende til den ofte omtalte visjonen om en AI-"singularitet", der teknologien plutselig blir mer intelligent enn mennesker, og dermed innleder en ny æra med superintelligent AI. 

Andre, deriblant Altman, har nå sagt at de forventer at AI-utviklingen vil være mer detaljert og progressiv i stedet for å "ta av" over natten.

Ifølge LeCuns argumenter kan big tech utnytte AI-risikoen til sin fordel, slik at de kan forsterke markedsstrukturene og stenge konkurransen ute. Ifølge LeCun er den virkelige risikoen at noen få utvalgte AI-utviklere eier bransjen og dikterer dens utvikling. 

Han understreket alvoret i situasjonen og uttalte: "Hvis denne innsatsen lykkes, vil resultatet bli en katastrofe fordi et lite antall selskaper vil kontrollere AI." Denne uttalelsen gjenspeiler den bredere konsensusen i teknologiverdenen om AIs transformative potensial, og sidestiller dens betydning med mikrochipen eller internett.

LeCuns kommentar var et svar til den anerkjente fysikeren Max Tegmark, som hadde antydet at LeCun ikke tok den eksistensielle risikoen ved kunstig intelligens alvorlig nok.

I et offentlig innlegg anerkjente Tegmark innsatsen til globale ledere for å anerkjenne de potensielle farene ved AI, og uttalte at de "ikke kan motbevises med snark og bedriftslobbyvirksomhet alene."

I takt med AIs økende innflytelse har personer som Altman og Hassabis blitt sentrale i den offentlige teknologidiskursen. LeCun kritiserer dem imidlertid for å nøre opp under frykten for kunstig intelligens, samtidig som de tjener penger på den.

I mars deltok over tusen teknologiledere, deriblant Elon Musk, Altman og Hassabis, tok til orde for en pause i utviklingen av kunstig intelligens, med henvisning til betydelige samfunnsmessige og humanitære risikoer.

LeCun mener imidlertid at disse dramatiske advarslene er et røykteppe som avleder oppmerksomheten fra umiddelbare problemer som utnyttelse av arbeidere og datatyveri.

LeCun etterlyser et nytt fokus i diskusjonen på AI-utviklingens nåtid og umiddelbare fremtid. Han uttrykte bekymring for at AI-fellesskapet med åpen kildekode kan bli utslettet hvis AI-utviklingen blir begrenset til private, profittorienterte enheter.

For LeCun er det mye som står på spill: "Alternativet, som uunngåelig vil skje hvis AI med åpen kildekode blir regulert bort, er at et lite antall selskaper fra vestkysten av USA og Kina vil kontrollere AI-plattformen og dermed kontrollere hele folks digitale kosthold", advarte han, og oppfordret til å ta hensyn til konsekvensene for demokrati og kulturelt mangfold.

LeCuns støttespillere

LeCuns argumenter får god støtte i sosiale medier, og det er stor enighet om dem blant kommentatorer og bransjeeksperter.

Andrew Ng, en sentral skikkelse i utviklingen av kunstig intelligens og medgrunnlegger av Google Brain, har for eksempel også uttrykt bekymring for at store teknologiselskaper kan manipulere diskursen om kunstig intelligens for å oppnå markedsdominans.


I et intervju med The Australian Financial Review fremhevet Ng en trend blant teknologigiganter som forsterker frykten for AI, spesielt ideen om at det kan føre til utryddelse av mennesker. I likhet med LeCun og andre antyder han at dette narrativet brukes strategisk for å få til strengere AI-regulering, og dermed hindre initiativer med åpen kildekode og mindre konkurrenter.

"Det finnes definitivt store teknologiselskaper som helst vil slippe å konkurrere med åpen kildekode, så de skaper frykt for at AI skal føre til utryddelse av mennesker", forklarer Ng. "Det har vært et våpen for lobbyister for å argumentere for lovgivning som ville være svært skadelig for open source-fellesskapet."

Tidligere i år... et lekket Google-notat tilsynelatende innrømmet at big tech var i ferd med å tape terreng til åpen kildekode. 

I notatet står det: "Open source-modeller er raskere, mer tilpasningsdyktige, mer private og mer effektive. De gjør ting med $100- og 13B-parametere som vi sliter med på $10M og 540B. Og de gjør det på uker, ikke måneder."

AI med åpen kildekode er rask, ikke-monolittisk, privat og fremfor alt billig. Big tech er allerede sliter med å tjene penger på AISå på papiret gir det hele mening: å regulere AI-industrien for å hjelpe gigantene til å seire. 

Distraksjoner fra umiddelbare trusler

Det er en annen dimensjon ved denne debatten som går utover penger.

Mange har gjentatt at de nåværende risikoene ved AI, som ekstremt sofistikerte forfalskninger og feilinformasjon, allerede er tilstrekkelige til å rettferdiggjøre en langvarig debatt og raske tiltak. 

Aidan Gomez, en fremtredende forsker innen kunstig intelligens og administrerende direktør i Cohere, understreket også risikoen ved å fokusere for mye på dommedagsscenarioer. 

I forkant av denne ukens Toppmøte om AI-sikkerhetGomez påpekte at umiddelbare trusler som feilinformasjon og svekket sosial tillit kommer i skyggen av diskusjoner om langsiktige, eksistensielle risikoer.

"Jeg tror at når det gjelder eksistensiell risiko og offentlig politikk, er det ikke en produktiv samtale å ha", uttalte Gomez, og understreket behovet for å prioritere umiddelbare risikoer.

"Når det gjelder offentlig politikk og hvor vi bør ha fokus i offentlig sektor - eller å forsøke å redusere risikoen for sivilbefolkningen - mener jeg at det er en distraksjon, bort fra risikoer som er mye mer håndgripelige og umiddelbare."

Gomez fremhever den gjennomgripende innflytelsen AI har på produkter som brukes av milliarder av mennesker, og understreker at det haster med å håndtere risikoer som aktivt påvirker publikum. "Denne teknologien finnes allerede i en milliard brukerprodukter, som hos Google og andre. Det gir oss en rekke nye risikoer å diskutere, men ingen av dem er eksistensielle eller dommedagsscenarioer", forklarer han. 

Han peker på feilinformasjon som et hovedproblem, gitt AI-modellenes evne til å skape medier som "praktisk talt ikke kan skilles fra menneskeskapte tekster, bilder eller medier".

Feilinformasjon er faktisk samfunnsfiende nummer én når det gjelder AI-risiko, ettersom vi allerede har sett eksempler på at forfalskninger har blitt brukt i vellykkede svindelforsøk.

Dype forfalskninger utplassert før ettertid ved det slovakiske valget viste hvordan de konkret kan påvirke demokratiet. 

Yoshua Bengio, Geoffrey Hinton og Elon Musk deltar i debatten

"AI-gudfaren" Yoshua Bengio, sammen med en forsamling på over 200 teknologiledere og forskere, sluttet seg til et åpent brev som understreker det kritiske behovet for umiddelbare og omfattende tiltak.

Bengio står nå i spissen for en internasjonal rapport som ble lagt frem på Storbritannias AI Safety Summit. Han er overbevist om at AI utgjør en risiko, i likhet med Geoffrey Hinton, noe som betyr at 2/3 av "AI-gudfedrene" er bekymret på et eller annet nivå. 


På nettsiden hans, Bengio skrev"Jeg skrev nylig under på et åpent brev der jeg ba om å bremse utviklingen av gigantiske AI-systemer som er kraftigere enn GPT-4 - de som i dag består Turing-testen og dermed kan lure et menneske til å tro at det snakker med en jevnaldrende i stedet for en maskin."

Geoffrey Hinton fra AI-gudfedertriumviratet hadde forlatt Google for å "snakke ut" om sin frykt for AI. Han gikk så langt som å si at han angret på arbeidet sitt på grunn av hvordan AI kunne misbrukes, og uttalte i et intervju: "Jeg trøster meg med den vanlige unnskyldningen: Hvis jeg ikke hadde gjort det, ville noen andre ha gjort det."

Hinton støtter, i likhet med Bengio, synet om at kunstig intelligens utgjør en alvorlig risiko på utryddelsesnivå. Han tviler også på at åpne modeller kan bidra til økt sikkerhet. 

Han fremhevet nylig at hans valg om å forlate Google var i strid med LeCun et al.s kritiske holdning, og uttalte på X: "Andrew Ng hevder at ideen om at AI kan gjøre oss utryddet er en big-tech-konspirasjon. Et datapunkt som ikke passer inn i denne konspirasjonsteorien, er at jeg forlot Google slik at jeg kunne snakke fritt om den eksistensielle trusselen."

Hinton, Bengio og andre toppforskere innen kunstig intelligens, deriblant den innflytelsesrike kinesiske dataforskeren Andrew Yao, har nylig støttet en avis som beskriver risikoen ved kunstig intelligens.

Som Hinton sier: "Selskaper planlegger å trene opp modeller med 100 ganger mer databehandling enn dagens toppmoderne teknologi innen 18 måneder. Ingen vet hvor kraftige de vil være. Og det finnes i praksis ingen regulering av hva de vil kunne gjøre med disse modellene."

Denne debatten fortsetter og vil fortsette å gjøre det.

En X-bruker sa følgende:


LeCun har en annen antagonist i Elon Musk, som sjelden er fraværende i en X-debatt på høyt nivå, spesielt ikke når det gjelder en debatt som ligger midt i hans styrehus (for ikke å snakke om plattformen hans).

Musk har en veldokumentert historie med å uttrykke sin bekymring for AI, men holdningen hans har blitt svært uforutsigbar.

I den senere tid har Musk konsekvent stemplet AI som en potensiell eksistensiell trussel mot menneskeheten, og uttalt at det å utvikle kompleks AI var som å "tilkalle demonen". På AI Safety Summit sa han imidlertid at han trodde AI ville gi positive nettofordeler. 

De siste månedene har Musk kritisert OpenAI, fremhevet et avvik fra organisasjonens opprinnelige formål og uttrykt bekymring for organisasjonens "closed source"-retning, som i stor grad er påvirket av Microsoft. 

Både Musk og LeCun er stort sett enige i sin kritikk av AI med lukket kildekode, noe som viser at det å forsvare risikoen ved AI ikke alltid er det samme som å fordømme åpen kildekode.

Når det gjelder åpen kildekode, la oss se hva Musk velger å gjøre med eventuelle produkter hans AI-oppstartsselskapet xAI lanserer.

Google DeepMind-sjef slår tilbake mot LeCuns "skremselspropaganda"-påstand

Sjefen for Google DeepMind, Demis Hassabis, svarte på påstandene fra LeCun og beskyldte selskapet for å drive omfattende lobbyvirksomhet for å dominere AI-industrien. 

I et intervju med CNBCHassabis understreket at DeepMinds engasjement i AI-diskusjonene ikke er et forsøk på å oppnå "regulatorisk overtakelse".

Som svar på disse påstandene uttalte Hassabis: "Jeg er ganske uenig i de fleste av disse kommentarene fra Yann." 

Han skisserte tre hovedkategorier av risikoer forbundet med kunstig intelligens, og understreket viktigheten av å ta tak i umiddelbare problemer som feilinformasjon, "deep fakes" og partiskhet, samtidig som man tar hensyn til ondsinnede aktørers potensielle misbruk av kunstig intelligens og langsiktige risikoer forbundet med kunstig generell intelligens (AGI). 

Han tok til orde for å innlede samtaler om regulering av superintelligent AI før heller enn senere for å unngå alvorlige konsekvenser.

Hassabis fremhevet AI-teknologiens globale natur, og understreket behovet for internasjonalt samarbeid, blant annet med Kina, for å etablere ansvarlige standarder for utvikling og regulering. 

Både han og James Manyika, Googles senior visepresident for forskning, teknologi og samfunn, uttrykte et ønske om å se en global konsensus om AI. Hassabis deltok på Storbritannias AI Safety Summit, der han sluttet seg til holdningen fra verdens ledere om å legge vekt på sikkerhet og tilsyn med AI. 

Til tross for de pågående teknologiske spenningene mellom USA og Kina og de amerikanske teknologigigantenes motvilje mot å engasjere seg i kommersielt arbeid i Kina, understreket Hassabis nødvendigheten av kommunikasjon, og sa: "Jeg tror vi må snakke med alle på dette stadiet."

Finnes det en middelvei?

Debattene om de potensielle risikoene ved kunstig intelligens og de nødvendige regulatoriske tiltakene er i ferd med å nå et kritisk punkt.

De siste ukene har vi sett en økning i "offisielle samtaler" om AI, men regulering er fortsatt på trappene.

USAs regelverk og EUs AI Act vil legge det første harde grunnlaget for styring av kunstig intelligens. 

LeCun har et overbevisende argument for å tjene penger på AI i møte med åpen kildekode-konkurranse. Fra Googles lekkede notat til de sammenhengende eksistensielle risikoene som store teknologisjefer har lagt frem i mainstream media, har han og hans støttespillere rikelig med ammunisjon. 

Men mangelen på konsensus stikker dypere enn hodene til de profittmaksimerende AI-utviklerne hos Microsoft, DeepMind, Anthropic og så videre.

Bengio og Hinton er i hovedsak partiløse, og avdøde professor Stephen Hawking har for eksempel uttalt at det "kan bety slutten for menneskeheten" og kan vise seg å bli "den verste hendelsen i vår sivilisasjons historie". 

Forskere har demonstrert AI-systemers evne til å selvstendig utvikle nye målsom kan få katastrofale følger hvis de ikke håndteres på riktig måte. Andre eksperimenter har vist at AI-systemer aktivt kan søke etter ressurser, akkumulere kraft og iverksette tiltak for å unngå å bli slått av. 

Det finnes solid dokumentasjon på AI-relaterte skader, men står det i forhold til alarmklokkene som ringer hos de store teknologibossene?

Og kanskje enda viktigere: Kan man virkelig stole på at de håndterer bransjen på en etisk forsvarlig måte for alle, uavhengig av om det foreligger risiko eller ikke?

Kanskje vi bør se på de store teknologiselskapenes handlinger som det ultimate sjansespillet.

AI er sannsynligvis risikabelt, men noen få utvalgte selskaper ønsker å eie denne risikoen, presse den til det ytterste og forme den slik de selv ønsker, enten det er riktig eller galt.

Big tech kan laste spillet slik at huset alltid vinner så lenge det blir stående. 

Bli med i fremtiden


ABONNER I DAG

Tydelig, kortfattet og omfattende. Få et grep om AI-utviklingen med DagligAI

Sam Jeans

Sam er en vitenskaps- og teknologiskribent som har jobbet i ulike oppstartsbedrifter innen kunstig intelligens. Når han ikke skriver, leser han medisinske tidsskrifter eller graver seg gjennom esker med vinylplater.

×
 
 

GRATIS PDF EKSKLUSIV
Hold deg i forkant med DailyAI


 

Meld deg på vårt ukentlige nyhetsbrev og få eksklusiv tilgang til DailyAIs nyeste e-bok: "Mastering AI Tools: Din 2024-guide til økt produktivitet".



 
 

*Ved å abonnere på vårt nyhetsbrev aksepterer du vår Retningslinjer for personvern og vår Vilkår og betingelser