AI er risikabelt, ikke sandt? Det er, hvad vi alle har fået at vide det seneste år. Men ikke alle er enige, heller ikke nogle topforskere.
X har været præget af diskussioner om, hvorvidt AI udgør en reel eksistentiel risiko. Vi taler ikke om misinformation eller deep fakes - selvom det allerede er slemt - men om risici på linje med atomkatastrofer og pandemier.
Denne debat er blevet ført af AI-risikoskeptiker og Meta-chef for AI Yann LeCun, der betragtes som en af de såkaldte 'AI-gudfædre' sammen med Yoshua Bengio og Geoffrey Hinton.
I LeCuns skudlinje er OpenAI's CEO Sam Altman, DeepMinds CEO Demis Hassabis og Anthropics CEO Dario Amode, som LeCun beskyldte for "massiv virksomhedslobbyisme".
LeCun er især bekymret for, at store teknologibosser optrapper snakken om AI-risiko og -misbrug for at få myndighederne til at fastlåse branchen til deres fordel.
Big tech har tænderne til at håndtere regulering, mens mindre firmaer og open source-udviklere ikke har det. LeCun tvivler også på den ofte fremhævede vision om en AI-"singularitet", hvor teknologien pludselig bliver mere intelligent end mennesker og dermed signalerer en ny æra med superintelligent AI.
Andre, herunder Altman, har nu sagt, at de forventer, at AI-udviklingen bliver mere detaljeret og progressiv i stedet for at "tage fart" fra den ene dag til den anden.
Den *eneste* grund til, at folk hyperventilerer over AI-risici, er myten om den "hårde start": Idéen om, at menneskeheden er dødsdømt i det øjeblik, man tænder for et superintelligent system.
Det er absurd dumt og baseret på en *komplet* misforståelse af, hvordan alting fungerer.- Yann LeCun (@ylecun) 2. april 2023
Ifølge LeCuns argumenter kan big tech udnytte AI-risici til deres fordel, så de kan forstærke markedsstrukturerne og lukke konkurrencen ude. Den virkelige risiko er ifølge LeCun, at nogle få udvalgte AI-udviklere ejer branchen og dikterer dens kurs.
Han understregede situationens alvor og sagde: "Hvis disse bestræbelser lykkes, vil resultatet være en katastrofe, fordi et lille antal virksomheder vil kontrollere AI." Denne udtalelse afspejler den bredere konsensus i tech-verdenen om AI's transformative potentiale og sidestiller dens betydning med mikrochippens eller internettets.
LeCuns bemærkninger var et svar på den berømte fysiker Max Tegmark, som havde antydet, at LeCun ikke tog de eksistentielle risici ved AI alvorligt nok.
I et offentligt indlæg anerkendte Tegmark de globale lederes indsats for at anerkende de potentielle farer ved AI og sagde, at de "ikke kan afvises med snark og virksomhedslobbyisme alene."
Yann, jeg vil gerne høre dig komme med argumenter i stedet for akronymer. Tak til @RishiSunak & @vonderleyen for at indse, at AI-risikoargumenter fra Turing, Hinton, Bengio, Russell, Altman, Hassabis & Amodei ikke kan modbevises med snark og virksomhedslobbyisme alene. https://t.co/Zv1rvOA3Zz
- Max Tegmark (@tegmark) 29. oktober 2023
Midt i AI's stigende indflydelse er personer som Altman og Hassabis blevet centrale i den offentlige diskurs om teknologi. Men LeCun kritiserer dem for at skabe frygt for AI, samtidig med at de profiterer på den.
I marts deltog over tusind teknologiledere, herunder Elon Musk, Altman og Hassabis, gik ind for en pause i AI-udvikling med henvisning til betydelige samfundsmæssige og humanitære risici.
LeCun hævder dog, at disse dramatiske advarsler er et røgslør, der afleder opmærksomheden fra umiddelbare problemer som f.eks. Udnyttelse af arbejdere og datatyveri.
LeCun opfordrer til at fokusere diskussionen på den nuværende og umiddelbare fremtid for AI-udvikling. Han udtrykte sin bekymring over den potentielle udslettelse af open source AI-samfundet, hvis AI-udvikling bliver begrænset til private, profitorienterede enheder.
For LeCun er der meget på spil: "Alternativet, som uundgåeligt vil ske, hvis open source AI reguleres væk, er, at et lille antal virksomheder fra USA's vestkyst og Kina vil kontrollere AI-platformen og dermed kontrollere hele folks digitale kost", advarede han og opfordrede til at overveje konsekvenserne for demokratiet og den kulturelle mangfoldighed.
Altman, Hassabis og Amodei er dem, der laver massiv virksomhedslobbying i øjeblikket.
Det er dem, der forsøger at indfange AI-industrien med lovgivning.
Du, Geoff og Yoshua giver ammunition til dem, der lobbyer for et forbud mod åben forskning og udvikling af kunstig intelligens.Hvis...
- Yann LeCun (@ylecun) 29. oktober 2023
LeCuns støtter
LeCuns argumenter er velunderbyggede på de sociale medier og tiltrækker enighed blandt kommentatorer og brancheeksperter.
For eksempel har Andrew Ng, en central figur i udviklingen af AI og medstifter af Google Brain, også udtrykt bekymring for, at store teknologivirksomheder måske manipulerer diskursen om AI for at få markedsdominans.
I det mindste er der *en* stor teknologivirksomhed, der open sourcer AI-modeller og ikke lyver om AI's eksistentielle risiko 😊.https://t.co/vyk4qkOzOq
- Yann LeCun (@ylecun) 31. oktober 2023
I et interview med The Australian Financial Review fremhævede Ng en tendens blandt tech-giganter til at forstærke frygten for AI, især ideen om, at det kan føre til udryddelse af mennesker. Ligesom LeCun og andre antyder han, at denne fortælling bruges strategisk til at fremkalde strengere AI-regulering og derved hindre open source-initiativer og mindre konkurrenter.
"Der er helt sikkert store teknologivirksomheder, som helst ikke vil konkurrere med open source, så de skaber frygt for, at AI vil føre til udryddelse af mennesker," forklarer Ng. "Det har været et våben for lobbyister til at argumentere for lovgivning, der ville være meget skadelig for open source-samfundet."
Tidligere på åretI et lækket Google-memo blev det tilsyneladende indrømmet, at big tech var ved at tabe terræn til open source.
I notatet stod der: "Open source-modeller er hurtigere, kan tilpasses mere, er mere private og er mere effektive. De gør ting med $100 og 13B params, som vi kæmper med på $10M og 540B. Og de gør det på uger, ikke måneder."
Open source AI er hurtig, ikke-monolitisk, privat og frem for alt billig. Big tech er allerede kæmper for at tjene penge på AISå det hele giver mening på papiret: Reguler AI-industrien for at hjælpe titanerne med at sejre.
Distraktion fra umiddelbare trusler
Der er en anden dimension i denne debat, som går ud over penge.
Mange har gentaget, at AI's nuværende risici, som f.eks. ekstremt sofistikerede forfalskninger og misinformation, allerede er tilstrækkelige til at berettige en lang debat og hurtig handling.
Aidan Gomez, en fremtrædende forsker i AI og CEO for Cohere, understregede også risikoen ved at fokusere for meget på dommedagsscenarier.
I en tale forud for denne uges Topmøde om AI-sikkerhedGomez påpegede, at umiddelbare trusler som misinformation og erosion af social tillid bliver overskygget af diskussioner om langsigtede eksistentielle risici.
"Jeg tror ikke, at det er en produktiv samtale, når det gælder eksistentiel risiko og offentlig politik", sagde Gomez og understregede behovet for at prioritere umiddelbare risici.
"Hvad angår offentlig politik, og hvor vi bør have den offentlige sektors fokus - eller forsøge at mindske risikoen for civilbefolkningen - mener jeg, at det afleder opmærksomheden fra risici, der er meget mere håndgribelige og umiddelbare."
Gomez fremhæver den gennemgribende indflydelse af AI i produkter, der bruges af milliarder, og understreger det presserende behov for at håndtere risici, der aktivt påvirker offentligheden. "Denne teknologi findes allerede i en milliard brugerprodukter, som hos Google og andre. Det giver en række nye risici at diskutere, hvoraf ingen er eksistentielle, og ingen er dommedagsscenarier," forklarede han.
Han identificerer misinformation som en primær bekymring på grund af AI-modellernes evne til at skabe medier, der "stort set ikke kan skelnes fra menneskeskabt tekst, billeder eller medier".
Fejlinformation er faktisk samfundets fjende nummer et, når det gælder AI-risici, da vi allerede har set eksempler på, at forfalskninger er blevet brugt i vellykkede svindelnumre.
Dybe forfalskninger indsat før eftertid ved det slovakiske valg viste, hvordan de konkret kan påvirke demokratiet.
Yoshua Bengio, Geoffrey Hinton og Elon Musk deltager i debatten
'AI-gudfaderen' Yoshua Bengio har sammen med en forsamling på over 200 teknologiledere og forskere godkendt et åbent brev, der fremhæver det kritiske behov for øjeblikkelig og omfattende handling.
Bengio står nu i spidsen for en international rapport, der blev præsenteret på det britiske AI Safety Summit. Han er meget overbevist om AI-risici, ligesom Geoffrey Hinton, hvilket betyder, at 2/3 af 'AI-gudfædrene' er bekymrede på et eller andet niveau.
Du og Yoshua hjælper utilsigtet dem, der ønsker at sætte AI-forskning og -udvikling under lås og slå og beskytte deres forretning ved at forbyde åben forskning, open source-kode og modeller med åben adgang.
Det vil uundgåeligt føre til dårlige resultater på mellemlangt sigt.
- Yann LeCun (@ylecun) 31. oktober 2023
På hans hjemmeside, Bengio skrev"Jeg har for nylig underskrevet et åbent brev, hvor jeg beder om at bremse udviklingen af gigantiske AI-systemer, der er kraftigere end GPT-4 - dem, der i øjeblikket består Turing-testen og dermed kan narre et menneske til at tro, at det taler med en jævnaldrende i stedet for en maskine."
Geoffrey Hinton fra AI-gudfadertriumviratet havde forladt Google for at "tale ud" om sin frygt for AI. Han gik så langt som til at sige, at han fortrød sit arbejde på grund af, hvordan AI kunne misbruges, og sagde i et interview: "Jeg trøster mig selv med den normale undskyldning: Hvis jeg ikke havde gjort det, ville en anden have gjort det."
Hinton støtter ligesom Bengio det synspunkt, at AI udgør en alvorlig risiko for udryddelse. Han tvivler også på, at open source-modeller kan støtte sikkerhedsindsatsen.
Han understregede for nylig, at hans valg om at forlade Google var i strid med LeCun et al.s kritiske holdning, og sagde på X: "Andrew Ng hævder, at ideen om, at AI kan få os til at uddø, er en stor teknologisk sammensværgelse. Et datapunkt, der ikke passer ind i denne konspirationsteori, er, at jeg forlod Google, så jeg kunne tale frit om den eksistentielle trussel."
Andrew Ng hævder, at ideen om, at AI kan udrydde os, er en big-tech-konspiration. Et datapunkt, der ikke passer ind i denne konspirationsteori, er, at jeg forlod Google, så jeg kunne tale frit om den eksistentielle trussel.
- Geoffrey Hinton (@geoffreyhinton) 31. oktober 2023
Hinton, Bengio og andre topforskere inden for kunstig intelligens, herunder den indflydelsesrige kinesiske computerforsker Andrew Yao, har for nylig støttede et papir der beskriver AI's risici.
Med Hintons ord: "Virksomhederne planlægger at træne modeller med 100 gange større regnekraft end dagens state of the art inden for 18 måneder. Ingen ved, hvor kraftfulde de vil være. Og der er stort set ingen regler for, hvad de vil kunne gøre med disse modeller."
Lad os også open source atomvåben for at gøre dem mere sikre. De gode (os) vil altid have større våben end de onde (dem), så det skal nok gå alt sammen.
- Geoffrey Hinton (@geoffreyhinton) 31. oktober 2023
Det er fint at regulere produktudbredelsen.
I tilfælde af livskritiske applikationer som kørselsassistance er det nødvendigt.Det, vi er imod, er regulering af AI-forskning og -udvikling.
Især med vilkårlige grænser for beregningsniveauer.- Yann LeCun (@ylecun) 1. november 2023
Denne debat fortsætter og vil fortsætte med at gøre det.
En X-bruger sagde følgende:
AI's grundlæggere har kollegieværelse efter 2 bonghits niveaudebatter pic.twitter.com/8MUze6hxBS
- Hassan Hayat 🔥 (@TheSeaMouse) 31. oktober 2023
LeCun har en anden modstander i Elon Musk, som sjældent er fraværende i en X-debat på højt niveau, især ikke en, der ligger lige til højrebenet for ham (for ikke at tale om hans platform).
Musk har en veldokumenteret historie med at udtrykke sin bekymring for AI, men hans holdning er blevet meget uforudsigelig.
I den seneste tid har Musk konsekvent betegnet AI som en potentiel eksistentiel trussel mod menneskeheden og sagt, at udvikling af kompleks AI var som at "hidkalde dæmonen". På AI Safety Summit sagde han dog, at han troede, at AI ville give positive nettofordele.
I de seneste måneder har Musk kritiseret OpenAI og fremhævet en afvigelse fra organisationens oprindelige mission og udtrykt bekymring over dens "closed source"-retning, der er stærkt påvirket af Microsoft.
Både Musk og LeCun er stort set enige i deres kritik af closed source AI, hvilket viser, at det at forsvare AI's risici ikke altid er ensbetydende med at fordømme open source.
Hvad angår open source, så lad os se, hvad Musk vælger at gøre med sine produkter. AI-startup xAI udgiver.
Googles DeepMind-chef slår tilbage mod LeCuns "skræmmekampagne"-påstand
Lederen af Google DeepMind, Demis Hassabis, reagerede på LeCuns beskyldninger og beskyldte virksomheden for at drive omfattende lobbyvirksomhed for at dominere AI-industrien.
I et interview med CNBCHassabis understregede, at DeepMinds engagement i AI-diskussioner ikke er et forsøg på at opnå "lovgivningsmæssig indfangning".
Som svar på disse påstande sagde Hassabis: "Jeg er stort set uenig i de fleste af disse kommentarer fra Yann."
Han skitserede tre hovedkategorier af risici forbundet med AI og understregede vigtigheden af at tage fat på umiddelbare problemer som misinformation, deep fakes og bias, samtidig med at man overvejer ondsindede aktørers potentielle misbrug af AI og langsigtede risici forbundet med kunstig generel intelligens (AGI).
Han slog til lyd for at indlede samtaler om regulering af superintelligent AI før snarere end senere for at undgå alvorlige konsekvenser.
Hassabis fremhævede AI-teknologiens globale karakter og understregede behovet for internationalt samarbejde, herunder samarbejde med Kina, for at etablere ansvarlige udviklings- og reguleringsstandarder.
Både han og James Manyika, Googles senior vicepræsident for forskning, teknologi og samfund, udtrykte et ønske om at se en global konsensus om AI. Hassabis deltog i Storbritanniens AI Safety Summit, hvor han tilsluttede sig holdningen fra verdens ledere om at lægge vægt på AI-sikkerhed og -tilsyn.
På trods af de vedvarende teknologiske spændinger mellem USA og Kina og de amerikanske teknologigiganters tøven med at engagere sig i kommercielt arbejde i Kina, understregede Hassabis nødvendigheden af kommunikation og sagde: "Jeg tror, vi er nødt til at tale med alle på dette tidspunkt."
Er der en mellemvej?
Debatterne om AI's potentielle risici og de nødvendige lovgivningsmæssige tiltag er ved at nå et kritisk punkt.
I de seneste uger er der kommet flere og flere "officielle samtaler" om AI, men der er stadig regulering på vej.
USA's lovgivning og EU's AI Act vil lægge det første hårde fundament for AI-styring.
LeCuns hjørne er et overbevisende argument for at tjene penge på AI i lyset af open source-konkurrencen. Fra Googles lækkede memo til de sammenhængende eksistentielle risici, som store teknologibosser fremfører i mainstreammedierne, har han og hans støtter masser af ammunition.
Men den manglende enighed stikker dybere end hovederne på de profitable AI-udviklere hos Microsoft, DeepMind, Anthropic og så videre.
Bengio og Hinton er hovedsageligt uafhængige, og den afdøde professor Stephen Hawking har for eksempel udtalt, at det "kan betyde enden på den menneskelige race" og kan vise sig at være den "værste begivenhed i vores civilisations historie".
Forskere har demonstreret AI-systemers evne til at selvstændigt udvikle nye målsom kan få katastrofale følger, hvis de ikke håndteres korrekt. Andre eksperimenter har vist, at AI-systemer aktivt kan søge ressourcer, akkumulere kraft og tage skridt til at forhindre, at de bliver lukket ned.
Der er solide beviser for AI-relaterede skader, men står de i forhold til de alarmklokker, som de store teknologibosser ringer med?
Og måske endnu vigtigere: Kan man virkelig stole på, at de håndterer branchen etisk korrekt for alle, uanset om der er en risiko eller ej?
Måske skal vi se big tech's handlinger som den ultimative satsning.
AI er højst sandsynligt risikabelt, men nogle få udvalgte firmaer ønsker at eje den risiko, presse den til det yderste og forme den, som de finder det passende, rigtigt eller forkert.
Big tech kan indlæse spillet, så huset altid vinder, så længe det bliver stående.