Kampen mellem 'AI-gudfædrene' - er AI risikabelt eller ej?!

2. november 2023

AI-risici

AI er risikabelt, ikke sandt? Det er, hvad vi alle har fået at vide det seneste år. Men ikke alle er enige, heller ikke nogle topforskere. 

X har været præget af diskussioner om, hvorvidt AI udgør en reel eksistentiel risiko. Vi taler ikke om misinformation eller deep fakes - selvom det allerede er slemt - men om risici på linje med atomkatastrofer og pandemier.

Denne debat er blevet ført af AI-risikoskeptiker og Meta-chef for AI Yann LeCun, der betragtes som en af de såkaldte 'AI-gudfædre' sammen med Yoshua Bengio og Geoffrey Hinton. 

I LeCuns skudlinje er OpenAI's CEO Sam Altman, DeepMinds CEO Demis Hassabis og Anthropics CEO Dario Amode, som LeCun beskyldte for "massiv virksomhedslobbyisme".

LeCun er især bekymret for, at store teknologibosser optrapper snakken om AI-risiko og -misbrug for at få myndighederne til at fastlåse branchen til deres fordel.

Big tech har tænderne til at håndtere regulering, mens mindre firmaer og open source-udviklere ikke har det. LeCun tvivler også på den ofte fremhævede vision om en AI-"singularitet", hvor teknologien pludselig bliver mere intelligent end mennesker og dermed signalerer en ny æra med superintelligent AI. 

Andre, herunder Altman, har nu sagt, at de forventer, at AI-udviklingen bliver mere detaljeret og progressiv i stedet for at "tage fart" fra den ene dag til den anden.

Ifølge LeCuns argumenter kan big tech udnytte AI-risici til deres fordel, så de kan forstærke markedsstrukturerne og lukke konkurrencen ude. Den virkelige risiko er ifølge LeCun, at nogle få udvalgte AI-udviklere ejer branchen og dikterer dens kurs. 

Han understregede situationens alvor og sagde: "Hvis disse bestræbelser lykkes, vil resultatet være en katastrofe, fordi et lille antal virksomheder vil kontrollere AI." Denne udtalelse afspejler den bredere konsensus i tech-verdenen om AI's transformative potentiale og sidestiller dens betydning med mikrochippens eller internettets.

LeCuns bemærkninger var et svar på den berømte fysiker Max Tegmark, som havde antydet, at LeCun ikke tog de eksistentielle risici ved AI alvorligt nok.

I et offentligt indlæg anerkendte Tegmark de globale lederes indsats for at anerkende de potentielle farer ved AI og sagde, at de "ikke kan afvises med snark og virksomhedslobbyisme alene."

Midt i AI's stigende indflydelse er personer som Altman og Hassabis blevet centrale i den offentlige diskurs om teknologi. Men LeCun kritiserer dem for at skabe frygt for AI, samtidig med at de profiterer på den.

I marts deltog over tusind teknologiledere, herunder Elon Musk, Altman og Hassabis, gik ind for en pause i AI-udvikling med henvisning til betydelige samfundsmæssige og humanitære risici.

LeCun hævder dog, at disse dramatiske advarsler er et røgslør, der afleder opmærksomheden fra umiddelbare problemer som f.eks. Udnyttelse af arbejdere og datatyveri.

LeCun opfordrer til at fokusere diskussionen på den nuværende og umiddelbare fremtid for AI-udvikling. Han udtrykte sin bekymring over den potentielle udslettelse af open source AI-samfundet, hvis AI-udvikling bliver begrænset til private, profitorienterede enheder.

For LeCun er der meget på spil: "Alternativet, som uundgåeligt vil ske, hvis open source AI reguleres væk, er, at et lille antal virksomheder fra USA's vestkyst og Kina vil kontrollere AI-platformen og dermed kontrollere hele folks digitale kost", advarede han og opfordrede til at overveje konsekvenserne for demokratiet og den kulturelle mangfoldighed.

LeCuns støtter

LeCuns argumenter er velunderbyggede på de sociale medier og tiltrækker enighed blandt kommentatorer og brancheeksperter.

For eksempel har Andrew Ng, en central figur i udviklingen af AI og medstifter af Google Brain, også udtrykt bekymring for, at store teknologivirksomheder måske manipulerer diskursen om AI for at få markedsdominans.


I et interview med The Australian Financial Review fremhævede Ng en tendens blandt tech-giganter til at forstærke frygten for AI, især ideen om, at det kan føre til udryddelse af mennesker. Ligesom LeCun og andre antyder han, at denne fortælling bruges strategisk til at fremkalde strengere AI-regulering og derved hindre open source-initiativer og mindre konkurrenter.

"Der er helt sikkert store teknologivirksomheder, som helst ikke vil konkurrere med open source, så de skaber frygt for, at AI vil føre til udryddelse af mennesker," forklarer Ng. "Det har været et våben for lobbyister til at argumentere for lovgivning, der ville være meget skadelig for open source-samfundet."

Tidligere på åretI et lækket Google-memo blev det tilsyneladende indrømmet, at big tech var ved at tabe terræn til open source. 

I notatet stod der: "Open source-modeller er hurtigere, kan tilpasses mere, er mere private og er mere effektive. De gør ting med $100 og 13B params, som vi kæmper med på $10M og 540B. Og de gør det på uger, ikke måneder."

Open source AI er hurtig, ikke-monolitisk, privat og frem for alt billig. Big tech er allerede kæmper for at tjene penge på AISå det hele giver mening på papiret: Reguler AI-industrien for at hjælpe titanerne med at sejre. 

Distraktion fra umiddelbare trusler

Der er en anden dimension i denne debat, som går ud over penge.

Mange har gentaget, at AI's nuværende risici, som f.eks. ekstremt sofistikerede forfalskninger og misinformation, allerede er tilstrækkelige til at berettige en lang debat og hurtig handling. 

Aidan Gomez, en fremtrædende forsker i AI og CEO for Cohere, understregede også risikoen ved at fokusere for meget på dommedagsscenarier. 

I en tale forud for denne uges Topmøde om AI-sikkerhedGomez påpegede, at umiddelbare trusler som misinformation og erosion af social tillid bliver overskygget af diskussioner om langsigtede eksistentielle risici.

"Jeg tror ikke, at det er en produktiv samtale, når det gælder eksistentiel risiko og offentlig politik", sagde Gomez og understregede behovet for at prioritere umiddelbare risici.

"Hvad angår offentlig politik, og hvor vi bør have den offentlige sektors fokus - eller forsøge at mindske risikoen for civilbefolkningen - mener jeg, at det afleder opmærksomheden fra risici, der er meget mere håndgribelige og umiddelbare."

Gomez fremhæver den gennemgribende indflydelse af AI i produkter, der bruges af milliarder, og understreger det presserende behov for at håndtere risici, der aktivt påvirker offentligheden. "Denne teknologi findes allerede i en milliard brugerprodukter, som hos Google og andre. Det giver en række nye risici at diskutere, hvoraf ingen er eksistentielle, og ingen er dommedagsscenarier," forklarede han. 

Han identificerer misinformation som en primær bekymring på grund af AI-modellernes evne til at skabe medier, der "stort set ikke kan skelnes fra menneskeskabt tekst, billeder eller medier".

Fejlinformation er faktisk samfundets fjende nummer et, når det gælder AI-risici, da vi allerede har set eksempler på, at forfalskninger er blevet brugt i vellykkede svindelnumre.

Dybe forfalskninger indsat før eftertid ved det slovakiske valg viste, hvordan de konkret kan påvirke demokratiet. 

Yoshua Bengio, Geoffrey Hinton og Elon Musk deltager i debatten

'AI-gudfaderen' Yoshua Bengio har sammen med en forsamling på over 200 teknologiledere og forskere godkendt et åbent brev, der fremhæver det kritiske behov for øjeblikkelig og omfattende handling.

Bengio står nu i spidsen for en international rapport, der blev præsenteret på det britiske AI Safety Summit. Han er meget overbevist om AI-risici, ligesom Geoffrey Hinton, hvilket betyder, at 2/3 af 'AI-gudfædrene' er bekymrede på et eller andet niveau. 


På hans hjemmeside, Bengio skrev"Jeg har for nylig underskrevet et åbent brev, hvor jeg beder om at bremse udviklingen af gigantiske AI-systemer, der er kraftigere end GPT-4 - dem, der i øjeblikket består Turing-testen og dermed kan narre et menneske til at tro, at det taler med en jævnaldrende i stedet for en maskine."

Geoffrey Hinton fra AI-gudfadertriumviratet havde forladt Google for at "tale ud" om sin frygt for AI. Han gik så langt som til at sige, at han fortrød sit arbejde på grund af, hvordan AI kunne misbruges, og sagde i et interview: "Jeg trøster mig selv med den normale undskyldning: Hvis jeg ikke havde gjort det, ville en anden have gjort det."

Hinton støtter ligesom Bengio det synspunkt, at AI udgør en alvorlig risiko for udryddelse. Han tvivler også på, at open source-modeller kan støtte sikkerhedsindsatsen. 

Han understregede for nylig, at hans valg om at forlade Google var i strid med LeCun et al.s kritiske holdning, og sagde på X: "Andrew Ng hævder, at ideen om, at AI kan få os til at uddø, er en stor teknologisk sammensværgelse. Et datapunkt, der ikke passer ind i denne konspirationsteori, er, at jeg forlod Google, så jeg kunne tale frit om den eksistentielle trussel."

Hinton, Bengio og andre topforskere inden for kunstig intelligens, herunder den indflydelsesrige kinesiske computerforsker Andrew Yao, har for nylig støttede et papir der beskriver AI's risici.

Med Hintons ord: "Virksomhederne planlægger at træne modeller med 100 gange større regnekraft end dagens state of the art inden for 18 måneder. Ingen ved, hvor kraftfulde de vil være. Og der er stort set ingen regler for, hvad de vil kunne gøre med disse modeller."

Denne debat fortsætter og vil fortsætte med at gøre det.

En X-bruger sagde følgende:


LeCun har en anden modstander i Elon Musk, som sjældent er fraværende i en X-debat på højt niveau, især ikke en, der ligger lige til højrebenet for ham (for ikke at tale om hans platform).

Musk har en veldokumenteret historie med at udtrykke sin bekymring for AI, men hans holdning er blevet meget uforudsigelig.

I den seneste tid har Musk konsekvent betegnet AI som en potentiel eksistentiel trussel mod menneskeheden og sagt, at udvikling af kompleks AI var som at "hidkalde dæmonen". På AI Safety Summit sagde han dog, at han troede, at AI ville give positive nettofordele. 

I de seneste måneder har Musk kritiseret OpenAI og fremhævet en afvigelse fra organisationens oprindelige mission og udtrykt bekymring over dens "closed source"-retning, der er stærkt påvirket af Microsoft. 

Både Musk og LeCun er stort set enige i deres kritik af closed source AI, hvilket viser, at det at forsvare AI's risici ikke altid er ensbetydende med at fordømme open source.

Hvad angår open source, så lad os se, hvad Musk vælger at gøre med sine produkter. AI-startup xAI udgiver.

Googles DeepMind-chef slår tilbage mod LeCuns "skræmmekampagne"-påstand

Lederen af Google DeepMind, Demis Hassabis, reagerede på LeCuns beskyldninger og beskyldte virksomheden for at drive omfattende lobbyvirksomhed for at dominere AI-industrien. 

I et interview med CNBCHassabis understregede, at DeepMinds engagement i AI-diskussioner ikke er et forsøg på at opnå "lovgivningsmæssig indfangning".

Som svar på disse påstande sagde Hassabis: "Jeg er stort set uenig i de fleste af disse kommentarer fra Yann." 

Han skitserede tre hovedkategorier af risici forbundet med AI og understregede vigtigheden af at tage fat på umiddelbare problemer som misinformation, deep fakes og bias, samtidig med at man overvejer ondsindede aktørers potentielle misbrug af AI og langsigtede risici forbundet med kunstig generel intelligens (AGI). 

Han slog til lyd for at indlede samtaler om regulering af superintelligent AI før snarere end senere for at undgå alvorlige konsekvenser.

Hassabis fremhævede AI-teknologiens globale karakter og understregede behovet for internationalt samarbejde, herunder samarbejde med Kina, for at etablere ansvarlige udviklings- og reguleringsstandarder. 

Både han og James Manyika, Googles senior vicepræsident for forskning, teknologi og samfund, udtrykte et ønske om at se en global konsensus om AI. Hassabis deltog i Storbritanniens AI Safety Summit, hvor han tilsluttede sig holdningen fra verdens ledere om at lægge vægt på AI-sikkerhed og -tilsyn. 

På trods af de vedvarende teknologiske spændinger mellem USA og Kina og de amerikanske teknologigiganters tøven med at engagere sig i kommercielt arbejde i Kina, understregede Hassabis nødvendigheden af kommunikation og sagde: "Jeg tror, vi er nødt til at tale med alle på dette tidspunkt."

Er der en mellemvej?

Debatterne om AI's potentielle risici og de nødvendige lovgivningsmæssige tiltag er ved at nå et kritisk punkt.

I de seneste uger er der kommet flere og flere "officielle samtaler" om AI, men der er stadig regulering på vej.

USA's lovgivning og EU's AI Act vil lægge det første hårde fundament for AI-styring. 

LeCuns hjørne er et overbevisende argument for at tjene penge på AI i lyset af open source-konkurrencen. Fra Googles lækkede memo til de sammenhængende eksistentielle risici, som store teknologibosser fremfører i mainstreammedierne, har han og hans støtter masser af ammunition. 

Men den manglende enighed stikker dybere end hovederne på de profitable AI-udviklere hos Microsoft, DeepMind, Anthropic og så videre.

Bengio og Hinton er hovedsageligt uafhængige, og den afdøde professor Stephen Hawking har for eksempel udtalt, at det "kan betyde enden på den menneskelige race" og kan vise sig at være den "værste begivenhed i vores civilisations historie". 

Forskere har demonstreret AI-systemers evne til at selvstændigt udvikle nye målsom kan få katastrofale følger, hvis de ikke håndteres korrekt. Andre eksperimenter har vist, at AI-systemer aktivt kan søge ressourcer, akkumulere kraft og tage skridt til at forhindre, at de bliver lukket ned. 

Der er solide beviser for AI-relaterede skader, men står de i forhold til de alarmklokker, som de store teknologibosser ringer med?

Og måske endnu vigtigere: Kan man virkelig stole på, at de håndterer branchen etisk korrekt for alle, uanset om der er en risiko eller ej?

Måske skal vi se big tech's handlinger som den ultimative satsning.

AI er højst sandsynligt risikabelt, men nogle få udvalgte firmaer ønsker at eje den risiko, presse den til det yderste og forme den, som de finder det passende, rigtigt eller forkert.

Big tech kan indlæse spillet, så huset altid vinder, så længe det bliver stående. 

Deltag i fremtiden


TILMELD DIG I DAG

Klar, kortfattet, omfattende. Få styr på AI-udviklingen med DailyAI

Sam Jeans

Sam er videnskabs- og teknologiforfatter og har arbejdet i forskellige AI-startups. Når han ikke skriver, kan han finde på at læse medicinske tidsskrifter eller grave i kasser med vinylplader.

×

GRATIS PDF EKSKLUSIVT
Vær på forkant med DailyAI

Tilmeld dig vores ugentlige nyhedsbrev og få eksklusiv adgang til DailyAI's seneste e-bog: 'Mastering AI Tools: Din 2024-guide til forbedret produktivitet'.

*Ved at tilmelde dig vores nyhedsbrev accepterer du vores Politik for beskyttelse af personlige oplysninger og vores Vilkår og betingelser