Drie debatten voor de AI-industrie: Intelligentie, vooruitgang en veiligheid

maart 22, 2024

Dat beroemde gezegde: "Hoe meer we weten, hoe meer we niet weten", gaat zeker op voor AI.

Hoe meer we leren over AI, hoe minder we zeker lijken te weten.

Experts en industrieleiders liggen vaak met elkaar overhoop over waar AI nu staat en waar het naartoe gaat. Ze slagen er niet in om het eens te worden over ogenschijnlijk elementaire concepten als machine-intelligentie, bewustzijn en veiligheid.

Zullen machines op een dag het intellect van hun menselijke makers overtreffen? Is de vooruitgang van AI aan het versnellen in de richting van een technologische singulariteit, of staan we aan de vooravond van een AI-winter?

En misschien wel het belangrijkst: hoe kunnen we ervoor zorgen dat de ontwikkeling van AI veilig en heilzaam blijft als experts het niet eens kunnen worden over wat de toekomst brengt?

AI is ondergedompeld in een mist van onzekerheid. Het beste wat we kunnen doen is perspectieven verkennen en tot goed geïnformeerde maar vloeiende standpunten komen voor een industrie die voortdurend in beweging is.

Eerste debat: AI intelligentie

Met elke nieuwe generatie generatieve AI-modellen komt er een hernieuwd debat over machine-intelligentie.

Elon Musk wakkerde onlangs het debat over AI-intelligentie aan toen hij zei: "AI zal volgend jaar waarschijnlijk slimmer zijn dan elk mens afzonderlijk. In 2029 is AI waarschijnlijk slimmer dan alle mensen samen."

Musk werd onmiddellijk tegengesproken door Meta's hoofd AI-wetenschapper en vooraanstaand AI-onderzoeker Yann LeCun, die zei: "Nee. Als dat zo was, zouden we AI-systemen hebben die zichzelf in 20 uur oefenen konden leren autorijden, zoals elke 17-jarige. Maar we hebben nog steeds geen volledig autonoom, betrouwbaar zelfrijdend systeem, ook al hebben we (jullie) miljoenen uren aan *gelabelde* trainingsdata."

Dit gesprek is slechts een microkosmos van een dubbelzinnige leegte in de mening van AI-experts en -leiders.

Het is een gesprek dat leidt tot een eindeloze interpretatiespiraal met weinig consensuszoals blijkt uit de sterk contrasterende standpunten van invloedrijke technologen in het afgelopen jaar (info van Verbeter het nieuws):

  • Geoffrey Hinton: "Digitale intelligentie" kan ons binnen "5 tot 20 jaar" inhalen.
  • Yann LeCun: Het is waarschijnlijker dat de maatschappij "kat-level" of "hond-level" AI krijgt, jaren voor AI op mensen-niveau.
  • Demis Hassabis: We kunnen "iets als AGI of AGI-achtigs bereiken in het volgende decennium".
  • Gary Marcus: "[W]e zullen uiteindelijk AGI bereiken... en mogelijk nog voor het einde van deze eeuw."
  • Geoffrey Hinton: "Huidige AI zoals GPT-4 "overschaduwt een mens" in algemene kennis en zou dat binnenkort ook kunnen doen in redeneren.
  • Geoffrey Hinton: AI is "er nu heel dichtbij" en zal "in de toekomst veel intelligenter zijn dan wij".
  • Elon Musk: "We zullen voor het eerst iets hebben dat slimmer is dan de slimste mens."
  • Elon Musk: "Het zou me verbazen als we geen AGI hebben tegen [2029]."
  • Sam Altman: "[W]e zouden in het volgende decennium tot een echte AGI kunnen komen."
  • Yoshua Bengio: "Supermenselijke AI's" zullen bereikt worden "tussen een paar jaar en een paar decennia".
  • Dario Amodei: AI op "menselijk niveau" kan binnen "twee of drie jaar" plaatsvinden.
  • Sam Altman: AI zou binnen een decennium het "vaardigheidsniveau van experts" op de meeste gebieden kunnen overtreffen.
  • Gary Marcus: "Ik [denk] niet dat we al zo dicht bij machines staan die intelligenter zijn dan wij."

Geen enkele partij heeft ondubbelzinnig gelijk of ongelijk in het debat over machine-intelligentie. Het hangt af van iemands subjectieve interpretatie van intelligentie en hoe AI-systemen zich meten met die definitie.

Pessimisten wijzen op de potentiële risico's en onbedoelde gevolgen van AI en benadrukken dat voorzichtigheid geboden is. Zij stellen dat naarmate AI-systemen autonomer en krachtiger worden, ze doelen en gedrag kunnen ontwikkelen die niet overeenkomen met de menselijke waarden, wat kan leiden tot catastrofale gevolgen.

Omgekeerd kunnen optimisten zich richten op het transformatiepotentieel van AI en zich een toekomst voorstellen waarin machines samenwerken met mensen om complexe problemen op te lossen en innovatie te stimuleren. Ze bagatelliseren de risico's met het argument dat zorgen over superintelligente AI grotendeels hypothetisch zijn en dat de voordelen groter zijn dan de risico's.

De kern van het probleem ligt in de moeilijkheid om intelligentie te definiëren en te kwantificeren, vooral bij het vergelijken van zulke verschillende entiteiten als mensen en machines.

Bijvoorbeeld een De vlieg heeft geavanceerde neurale circuits en kan met succes onze pogingen om hem te slaan of te vangen ontwijken. Dit soort vergelijkingen zijn potentieel grenzeloos.

Kies je voorbeelden van intelligentie en iedereen kan gelijk of ongelijk hebben.

Debat twee: versnelt of vertraagt AI?

Zal de vooruitgang van AI versnellen of stagneren en vertragen?

Sommigen beweren dat we midden in een AI-revolutie zitten en dat de doorbraken hand over hand gaan. Anderen beweren dat de vooruitgang een plateau heeft bereikt en dat het veld voor grote uitdagingen staat die de innovatie de komende jaren zouden kunnen vertragen.

Generatieve AI is het resultaat van tientallen jaren onderzoek en miljarden aan financiering. Toen ChatGPT in 2022 landde, had de technologie al een hoog niveau bereikt in onderzoeksomgevingen, waarbij de lat hoog werd gelegd en de maatschappij in het diepe werd gegooid.

De resulterende hype zorgde ook voor een enorme financiering van AI-startups, van Anthropic tot Inflection en van Stability AI tot MidJourney.

Dit, gecombineerd met enorme interne inspanningen van Silicon Valley veteranen Meta, Google, Amazon, Nvidia en Microsoft, resulteerde in een snelle verspreiding van AI tools. GPT-3 veranderde snel in het zwaargewicht GPT-4. Ondertussen werden concurrenten zoals LLM's Claude 3 Opus, xAI's Grok en Mistralen de open-source modellen van Meta hebben ook hun stempel gedrukt.

Sommige experts en technologen, zoals Sam Altman, Geoffrey Hinton, Yoshio Bengio, Demis Hassabis en Elon Musk, denken dat de versnelling van AI nog maar net begonnen is.

Musk zei dat generatieve AI zoiets was als "de demon wakker maken", terwijl Altman zei dat AI mind control op handen was (wat Musk heeft bewezen met recente ontwikkelingen in Neuralink; zie hieronder hoe een man een schaakspel speelde door alleen na te denken).

Aan de andere kant hebben experts zoals Gary Marcus en Yann LeCun het gevoel dat we tegen een muur aanlopen, met generatieve AI die een introspectieve periode of 'winter' tegemoet gaat.

Dit zou het gevolg zijn van praktische obstakels, zoals stijgende energiekosten, de beperkingen van brute rekenkracht, regelgeving en materiaaltekorten.

Generatieve AI is duur om te ontwikkelen en te onderhouden, en Geld verdienen is niet eenvoudig. Technologiebedrijven moeten manieren vinden om inertie te behouden zodat er geld in de sector blijft stromen.

Derde debat: AI-veiligheid

Discussies over AI intelligentie en vooruitgang hebben ook gevolgen voor de veiligheid van AI. Als we het niet eens kunnen worden over wat intelligentie is of hoe we het moeten meten, hoe kunnen we er dan voor zorgen dat AI-systemen veilig worden ontworpen en ingezet?

Het ontbreken van een gedeeld begrip van intelligentie maakt het een uitdaging om passende veiligheidsmaatregelen en ethische richtlijnen voor AI-ontwikkeling vast te stellen.

AI-intelligentie onderschatten is de noodzaak van AI-veiligheidscontroles en -regulering onderschatten.

Omgekeerd leidt het overschatten of overdrijven van de capaciteiten van AI tot een vertekend beeld en het risico van overregulering. Dit kan de macht in handen leggen van Big Tech, die een bewezen slagkracht heeft in het lobbyen en manipuleren van wetgeving. En als ze een fout maken, kunnen ze de boetes betalen.

Vorig jaar, langdurige X-debatten tussen Yann LeCun, Geoffrey Hinton, Max Tegmark, Gary Marcus, Elon Musk en talloze andere prominenten in de AI-gemeenschap benadrukte de diepe verdeeldheid in AI-veiligheid. Big Tech heeft hard gewerkt aan zelfregulering door 'vrijwillige richtlijnen' op te stellen waarvan de effectiviteit twijfelachtig is.

Critici stellen verder dat regulering Big Tech in staat stelt om marktstructuren versterkenzich te ontdoen van verstoorders en de spelregels van de sector naar hun hand te zetten.

Aan die kant van het debat stelt LeCun dat de existentiële risico's van AI zijn overschat en worden gebruikt als een rookgordijn door Big Tech-bedrijven om regelgeving door te drukken die de concurrentie zou verstikken en de controle zou consolideren.

LeCun en zijn aanhangers wijzen er ook op dat de directe risico's van AI, zoals verkeerde informatie, diepe vervalsingen en vooroordelen, mensen nu al schade berokkenen en dringend aandacht vereisen.

Aan de andere kant hebben Hinton, Bengio, Hassabis en Musk de noodklok geluid over de potentiële existentiële risico's van AI.

Bengio, LeCun en Hinton, die vaak bekend staan als de 'godfathers of AI' voor het ontwikkelen van neurale netwerken, deep learning en andere AI-technieken in de jaren 90 en begin jaren 2000, zijn nog steeds invloedrijk. Hinton en Bengio, wier opvattingen over het algemeen overeenkomen, zaten onlangs bij een zeldzame ontmoeting tussen Amerikaanse en Chinese onderzoekers op het Internationale dialoog over AI-veiligheid in Beijing.

De bijeenkomst culmineerde in in een verklaring: "In de diepte van de Koude Oorlog hielp internationale wetenschappelijke en gouvernementele coördinatie om een thermonucleaire ramp af te wenden. De mensheid moet opnieuw coördineren om een catastrofe af te wenden die zou kunnen voortkomen uit ongekende technologie."

Het moet gezegd worden dat Bengio en Hinton niet duidelijk financieel gelieerd zijn aan Big Tech en geen reden hebben om AI-risico's te overdrijven.

Hinton bracht dit punt zelf ter sprake in een X-discussie met LeCun en ex-Google Brain mede-oprichter Andrew Ng, waarbij hij benadrukte dat hij Google verliet om vrijuit over AI-risico's te spreken.

Veel grote wetenschappers hebben in de loop der jaren de veiligheid van AI in twijfel getrokken, waaronder wijlen prof Stephen Hawking, die de technologie als een existentieel risico zag.

Deze wervelende mix van polemische uitwisselingen laat weinig ruimte over voor mensen om een middenweg te bewandelen, wat het imago van generatieve AI als een polariserende technologie voedt.

AI-regulering heeft ondertussen een geopolitieke kwestie wordenDe VS en China werken voorzichtig samen op het gebied van AI-veiligheid, ondanks de escalerende spanningen in andere departementen.

Dus net zoals experts van mening verschillen over wanneer en hoe AI de menselijke capaciteiten zal overtreffen, verschillen ze ook in hun inschatting van de risico's en uitdagingen van het ontwikkelen van veilige en nuttige AI-systemen.

Debatten over AI-intelligentie zijn niet alleen principieel of filosofisch van aard - ze zijn ook een kwestie van bestuur.

Als experts het hartgrondig oneens zijn over zelfs de basiselementen van AI-intelligentie en -veiligheid, kan regelgeving niet hopen de belangen van mensen te dienen.

Om een consensus te bereiken, zullen experts, AI-ontwikkelaars, overheden en de maatschappij als geheel zich hiervan terdege bewust moeten worden.

Echter, naast vele andere uitdagingen, zal het sturen van AI naar de toekomst vereisen dat sommige technologieleiders en experts toegeven dat ze het mis hadden. En dat zal niet gemakkelijk zijn.

Doe mee met de toekomst


SCHRIJF JE VANDAAG NOG IN

Duidelijk, beknopt, uitgebreid. Krijg grip op AI-ontwikkelingen met DailyAI

Sam Jeans

Sam is een wetenschap- en technologieschrijver die bij verschillende AI-startups heeft gewerkt. Als hij niet aan het schrijven is, leest hij medische tijdschriften of graaft hij door dozen met vinylplaten.

×
 
 

GRATIS PDF EXCLUSIEF
Blijf voorop met DailyAI


 

Meld je aan voor onze wekelijkse nieuwsbrief en ontvang exclusieve toegang tot DailyAI's nieuwste eBook: 'Mastering AI Tools: Your 2024 Guide to Enhanced Productivity'.



 
 

* Door u aan te melden voor onze nieuwsbrief accepteert u onze Privacybeleid en onze Algemene voorwaarden