Tre debatter, som AI-industrien står over for: Intelligens, fremskridt og sikkerhed

22. marts 2024

Det berømte ordsprog: "Jo mere vi ved, jo mere ved vi ikke", gælder bestemt også for AI.

Jo mere vi lærer om AI, jo mindre synes vi at vide med sikkerhed.

Eksperter og industriledere er ofte i bitter strid om, hvor AI er nu, og hvor den er på vej hen. De kan ikke blive enige om tilsyneladende elementære begreber som maskinintelligens, bevidsthed og sikkerhed.

Vil maskiner en dag overgå deres menneskelige skaberes intellekt? Accelererer AI-udviklingen mod en teknologisk singularitet, eller står vi på tærsklen til en AI-vinter?

Og måske allervigtigst: Hvordan kan vi sikre, at udviklingen af kunstig intelligens forbliver sikker og gavnlig, når eksperterne ikke kan blive enige om, hvad fremtiden bringer?

AI er nedsænket i en tåge af usikkerhed. Det bedste, vi kan gøre, er at udforske perspektiver og komme frem til informerede, men flydende synspunkter for en branche i konstant forandring.

Første debat: AI-intelligens

Med hver ny generation af generative AI-modeller følger en fornyet debat om maskinintelligens.

Elon Musk satte for nylig gang i debatten om AI-intelligens, da han sagde: "AI vil sandsynligvis være klogere end et eneste menneske næste år. I 2029 er AI sandsynligvis klogere end alle mennesker tilsammen."

Musk blev straks modsagt af Metas AI-chefforsker og fremtrædende AI-forsker, Yann LeCun, som sagde: "Nej. Hvis det var tilfældet, ville vi have AI-systemer, der kunne lære sig selv at køre bil på 20 timers øvelse, ligesom enhver 17-årig. Men vi har stadig ikke fuldt autonome, pålidelige selvkørende systemer, selv om vi (I) har millioner af timers *mærkede* træningsdata."

Denne samtale viser blot et mikrokosmos af et tvetydigt tomrum i AI-eksperters og lederes opfattelse.

Det er en samtale, der fører til en uendelig spiral af fortolkninger med ringe konsensussom det fremgår af de meget forskellige synspunkter hos indflydelsesrige teknologer i løbet af det sidste års tid (info fra Forbedre nyhederne):

  • Geoffrey Hinton: "Digital intelligens" kan overhale os inden for "5 til 20 år".
  • Yann LeCun: Det er mere sandsynligt, at samfundet får AI på "katteniveau" eller "hundeniveau" mange år før AI på menneskeniveau.
  • Demis Hassabis: Vi kan opnå "noget i retning af AGI eller AGI-lignende i det næste årti."
  • Gary Marcus: "[V]i vil i sidste ende nå AGI ... og meget muligt inden udgangen af dette århundrede."
  • Geoffrey Hinton: "Nuværende AI som GPT-4 "overskygger en person" i generel viden og kan snart også gøre det i ræsonnement.
  • Geoffrey Hinton: AI er "meget tæt på nu" og vil være "meget mere intelligent end os i fremtiden".
  • Elon Musk: "Vi vil for første gang have noget, der er klogere end det klogeste menneske."
  • Elon Musk: "Det vil overraske mig, hvis vi ikke har AGI i [2029]."
  • Sam Altman: "[V]i kan nå frem til ægte AGI i løbet af det næste årti."
  • Yoshua Bengio: "Overmenneskelige AI'er" vil blive opnået "mellem nogle få år og et par årtier".
  • Dario Amodei: AI på "menneskeligt niveau" kan forekomme om "to eller tre år".
  • Sam Altman: AI kan overgå "ekspertniveauet" på de fleste områder inden for et årti.
  • Gary Marcus: "Jeg [tror] ikke, at vi er så tæt på maskiner, der er mere intelligente end os."

Ingen af parterne har entydigt ret eller uret i debatten om maskinel intelligens. Det afhænger af ens subjektive fortolkning af intelligens, og hvordan AI-systemer måler sig i forhold til den definition.

Pessimister kan pege på AI's potentielle risici og utilsigtede konsekvenser og understrege behovet for forsigtighed. De hævder, at efterhånden som AI-systemer bliver mere autonome og kraftfulde, kan de udvikle mål og adfærd, der ikke stemmer overens med menneskelige værdier, hvilket kan føre til katastrofale resultater.

Omvendt kan optimister fokusere på AI's transformative potentiale og forestille sig en fremtid, hvor maskiner arbejder sammen med mennesker for at løse komplekse problemer og drive innovation. De kan nedtone risiciene og hævde, at bekymringerne for superintelligent AI stort set er hypotetiske, og at fordelene opvejer risiciene.

Kernen i problemet er, at det er svært at definere og kvantificere intelligens, især når man sammenligner så forskellige enheder som mennesker og maskiner.

For eksempel kan en Fluen har avancerede neurale kredsløb og kan med held undgå vores forsøg på at slå eller fange den og dermed overliste os på dette snævre område. Den slags sammenligninger er potentielt ubegrænsede.

Vælg dine eksempler på intelligens, og alle kan have ret eller tage fejl.

Debat to: accelererer eller aftager AI?

Vil AI-udviklingen accelerere eller gå i stå og blive langsommere?

Nogle hævder, at vi er midt i en AI-revolution, hvor gennembruddene sker på stribe. Andre hævder, at fremskridtene har nået et plateau, og at området står over for store udfordringer, der kan bremse innovationen i de kommende år.

Generativ AI er kulminationen på årtiers forskning og milliarder af kroner i finansiering. Da ChatGPT landede i 2022, havde teknologien allerede nået et højt niveau i forskningsmiljøer, hvilket satte barren højt og kastede samfundet ud på dybt vand.

Den resulterende hype skabte også enorm finansiering til AI-startups, fra Anthropic til Inflection og Stability AI til MidJourney.

Dette kombineret med en enorm intern indsats fra Silicon Valley-veteranerne Meta, Google, Amazon, Nvidia og Microsoft resulterede i en hurtig udbredelse af AI-værktøjer. GPT-3 blev hurtigt forvandlet til sværvægteren GPT-4. I mellemtiden blev konkurrenter som LLM'er som Claude 3 Opus, xAI's Grok og Mistralog Metas open source-modeller har også gjort sig gældende.

Nogle eksperter og teknologer, som Sam Altman, Geoffrey Hinton, Yoshio Bengio, Demis Hassabis og Elon Musk, mener, at AI-accelerationen kun lige er begyndt.

Musk sagde, at generativ AI var som at "vække dæmonen", mens Altman sagde, at AI-tankekontrol var nært forestående (hvilket Musk har bevist med seneste fremskridt i Neuralink; Se nedenfor, hvordan en mand spillede et parti skak ved hjælp af tanken alene).

På den anden side mener eksperter som Gary Marcus og Yann LeCun, at vi løber panden mod en mur, og at generativ AI står over for en introspektiv periode eller "vinter".

Det skyldes praktiske forhindringer som f.eks. stigende energiomkostninger, begrænsninger i brute-force computing, regulering og materialemangel.

Generativ AI er dyr at udvikle og vedligeholde, og Det er ikke ligetil at tjene penge. Teknologivirksomheder skal finde måder at bevare inertien på, så pengene bliver ved med at strømme ind i branchen.

Debat tre: AI-sikkerhed

Samtaler om AI-intelligens og -fremskridt har også konsekvenser for AI-sikkerhed. Hvis vi ikke kan blive enige om, hvad der udgør intelligens, eller hvordan man måler den, hvordan kan vi så sikre, at AI-systemer designes og implementeres sikkert?

Fraværet af en fælles forståelse af intelligens gør det udfordrende at etablere passende sikkerhedsforanstaltninger og etiske retningslinjer for AI-udvikling.

At undervurdere AI-intelligens er at undervurdere behovet for AI-sikkerhedskontrol og -regulering.

Omvendt vil en overvurdering eller overdrivelse af AI's evner fordreje opfattelsen og risikere overregulering. Det kan fastholde magten hos Big Tech, som har bevist, at de kan lobbye og udmanøvrere lovgivningen. Og når de begår fejl, kan de betale bøderne.

Sidste år, Langvarige X-debatter blandt Yann LeCun, Geoffrey Hinton, Max Tegmark, Gary Marcus, Elon Musk og mange andre fremtrædende personer i AI-samfundet fremhævede dybe skel i AI-sikkerheden. Big Tech har arbejdet hårdt på at regulere sig selv ved at skabe "frivillige retningslinjer", som er tvivlsomme i deres effektivitet.

Kritikere hævder desuden, at regulering gør det muligt for Big Tech at styrke markedsstrukturerneDe vil gøre sig fri af forstyrrende faktorer og indrette branchens spilleregler efter deres smag.

På den side af debatten hævder LeCun, at de eksistentielle risici ved AI er blevet overvurderet og bliver brugt som et røgslør af Big Tech-virksomheder til at presse på for regler, der vil kvæle konkurrencen og konsolidere kontrollen.

LeCun og hans tilhængere påpeger også, at AI's umiddelbare risici, som f.eks. misinformation, deep fakes og bias, allerede skader mennesker og kræver akut opmærksomhed.

På den anden side har Hinton, Bengio, Hassabis og Musk slået alarm om de potentielle eksistentielle risici ved AI.

Bengio, LeCun og Hinton, ofte kendt som "AI's gudfædre" for at have udviklet neurale netværk, dyb læring og andre AI-teknikker i løbet af 90'erne og begyndelsen af 2000'erne, er stadig indflydelsesrige i dag. Hinton og Bengio, hvis synspunkter generelt stemmer overens, deltog for nylig i et sjældent møde mellem amerikanske og kinesiske forskere på International dialog om AI-sikkerhed i Beijing.

Mødet kulminerede i en udtalelse: "Under den kolde krig hjalp international videnskabelig og statslig koordinering med at afværge en termonuklear katastrofe. Menneskeheden er igen nødt til at koordinere for at afværge en katastrofe, der kan opstå som følge af en hidtil uset teknologi."

Det skal siges, at Bengio og Hinton ikke åbenlyst er økonomisk forbundet med Big Tech og ikke har nogen grund til at tage for store AI-risici.

Hinton rejste selv dette punkt i et X-slagsmål med LeCun og den tidligere medstifter af Google Brain, Andrew Ng, og understregede, at han forlod Google for at tale frit om AI-risici.

Faktisk har mange store forskere sat spørgsmålstegn ved AI-sikkerheden i årenes løb, herunder den afdøde professor Stephen Hawking, som betragtede teknologien som en eksistentiel risiko.

Denne hvirvlende blanding af polemiske udvekslinger giver kun lidt plads til folk på midten, hvilket giver næring til generativ AI's image som en polariserende teknologi.

AI-regulering har i mellemtiden blive et geopolitisk spørgsmål, hvor USA og Kina forsigtigt samarbejder om AI-sikkerhed på trods af eskalerende spændinger i andre afdelinger.

Så ligesom eksperterne er uenige om, hvornår og hvordan AI vil overgå menneskets evner, er de også uenige i deres vurderinger af risici og udfordringer ved at udvikle sikre og gavnlige AI-systemer.

Debatterne om AI-intelligens er ikke kun af principiel eller filosofisk karakter - De er også et spørgsmål om ledelse.

Når eksperter er voldsomt uenige om selv de grundlæggende elementer i AI-intelligens og -sikkerhed, kan regulering ikke håbe på at tjene folks interesser.

At skabe konsensus vil kræve hårde erkendelser fra eksperter, AI-udviklere, regeringer og samfundet som helhed.

Men ud over mange andre udfordringer vil styringen af AI ind i fremtiden kræve, at nogle teknologiledere og eksperter indrømmer, at de tog fejl. Og det bliver ikke let.

Deltag i fremtiden


TILMELD DIG I DAG

Klar, kortfattet, omfattende. Få styr på AI-udviklingen med DailyAI

Sam Jeans

Sam er videnskabs- og teknologiforfatter og har arbejdet i forskellige AI-startups. Når han ikke skriver, kan han finde på at læse medicinske tidsskrifter eller grave i kasser med vinylplader.

×
 
 

GRATIS PDF EKSKLUSIVT
Vær på forkant med DailyAI


 

Tilmeld dig vores ugentlige nyhedsbrev og få eksklusiv adgang til DailyAI's seneste e-bog: 'Mastering AI Tools: Din 2024-guide til forbedret produktivitet'.



 
 

*Ved at tilmelde dig vores nyhedsbrev accepterer du vores Politik for beskyttelse af personlige oplysninger og vores Vilkår og betingelser