De strijd van de 'AI-godvaders' - is AI riskant of niet?!

2 november 2023
AI-risico's

AI is riskant, toch? Dat is ons allemaal verteld het afgelopen jaar. Maar niet iedereen is het daarmee eens, ook sommige toponderzoekers niet. 

X is in vuur en vlam komen te staan met ruzies over de vraag of AI echte existentiële risico's met zich meebrengt. We hebben het niet over desinformatie of diepe vervalsingen - hoewel die al erg zijn - maar over risico's die vergelijkbaar zijn met nucleaire rampen en pandemieën.

Dit debat werd geleid door AI-risicoscepticus en Meta hoofd AI Yann LeCun, die wordt beschouwd als een van de zogenaamde 'AI godfathers' naast Yoshua Bengio en Geoffrey Hinton. 

In de vuurlinie van LeCun staan OpenAI CEO Sam Altman, DeepMind CEO Demis Hassabis en Anthropic CEO Dario Amode, die LeCun beschuldigde van "massaal lobbyen bij bedrijven".

LeCun is met name bezorgd dat grote techbazen de praatjes over AI-risico's en AI-misbruik opvoeren om toezichthouders zover te krijgen dat ze de industrie in hun voordeel afsluiten.

Big tech heeft de tanden om met regelgeving om te gaan, terwijl kleinere bedrijven en open source-ontwikkelaars dat niet hebben. LeCun twijfelt ook aan de vaak aangehaalde visie van een AI 'singulariteit' waar de technologie plotseling intelligenter wordt dan mensen, wat een nieuw tijdperk van superintelligente AI inluidt. 

Anderen, waaronder Altman, hebben nu gezegd dat ze verwachten dat AI-ontwikkeling meer granulair en progressief zal zijn in plaats van van de ene dag op de andere 'van de grond te komen'.

Volgens de argumenten van LeCun kunnen grote techbedrijven AI-risico's in hun voordeel aanwenden om marktstructuren te versterken en concurrentie uit te schakelen. Het echte risico, volgens LeCun, is dat een selecte groep AI-ontwikkelaars de industrie in handen krijgt en het traject dicteert. 

Hij benadrukte de ernst van de situatie door te stellen: "Als deze pogingen slagen, zou het resultaat een catastrofe zijn omdat een klein aantal bedrijven AI zal beheersen." Deze uitspraak weerspiegelt de bredere consensus in de techwereld over het transformatiepotentieel van AI, waarbij het belang van AI wordt gelijkgesteld aan dat van de microchip of het internet.

LeCun reageerde met zijn opmerkingen op de bekende natuurkundige Max Tegmark, die had geïmpliceerd dat LeCun de existentiële risico's van AI niet serieus genoeg nam.

In een openbare post erkende Tegmark de inspanningen van wereldleiders om de potentiële gevaren van AI te erkennen en stelde hij: "Deze kunnen niet alleen worden weerlegd met hoon en bedrijfslobby's."

Te midden van de toenemende invloed van AI zijn figuren als Altman en Hassabis een centrale rol gaan spelen in het publieke debat over technologie. LeCun bekritiseert hen echter omdat ze de angst voor AI aanwakkeren en er tegelijkertijd van profiteren.

In maart hebben meer dan duizend technologieleiders, waaronder Elon Musk, Altman en Hassabis, pleitte voor een pauze in de ontwikkeling van AI, vanwege de aanzienlijke maatschappelijke en humanitaire risico's.

LeCun stelt echter dat deze dramatische waarschuwingen een rookgordijn zijn, dat de aandacht afleidt van directe problemen zoals uitbuiting van werknemers en gegevensdiefstal.

LeCun roept op tot een heroriëntatie van de discussie op het heden en de nabije toekomst van AI-ontwikkeling. Hij uit zijn zorgen over de mogelijke vernietiging van de open-source AI-gemeenschap als AI-ontwikkeling wordt beperkt tot private, for-profit entiteiten.

Voor LeCun staat er veel op het spel: "Het alternatief, wat onvermijdelijk zal gebeuren als open source AI niet meer bestaat, is dat een klein aantal bedrijven van de westkust van de VS en China de controle krijgt over het AI-platform en daarmee over het hele digitale dieet van mensen", waarschuwde hij en drong erop aan om na te denken over de gevolgen voor democratie en culturele diversiteit.

LeCun's helpers

De argumenten van LeCun worden goed ondersteund op sociale media en krijgen bijval van respondenten en industrie-experts.

Andrew Ng, een sleutelfiguur in de ontwikkeling van AI en medeoprichter van Google Brain, uitte bijvoorbeeld ook zijn bezorgdheid over het feit dat grote technologiebedrijven het discours over AI zouden kunnen manipuleren om marktdominantie te verwerven.


In een interview met The Australian Financial Review benadrukte Ng een trend onder techgiganten om de angst voor AI te versterken, met name het idee dat AI zou kunnen leiden tot het uitsterven van de mens. Net als LeCun en anderen suggereert hij dat dit verhaal strategisch wordt gebruikt om strengere AI-regulering te stimuleren, waardoor open-source initiatieven en kleinere concurrenten worden belemmerd.

"Er zijn zeker grote techbedrijven die liever niet proberen te concurreren met open source, dus creëren ze angst dat AI leidt tot het uitsterven van mensen," legt Ng uit. "Het is een wapen geweest voor lobbyisten om te pleiten voor wetgeving die zeer schadelijk zou zijn voor de open source gemeenschap."

Eerder in het jaarEen uitgelekte memo van Google lijkt toe te geven dat big tech terrein aan het verliezen is aan open source. 

In de memo stond: "Open-source modellen zijn sneller, beter aanpasbaar, meer privé en pound-for-pound meer capabel. Ze doen dingen met $100 en 13B params waar wij moeite mee hebben met $10M en 540B. En dat doen ze in weken, niet maanden."

Open-source AI is snel, niet-monolithisch, privé en bovenal goedkoop. Big tech is al worstelen om AI te gelde te makenOp papier is het dus allemaal logisch: reguleer de AI-industrie om de titanen te helpen zegevieren. 

Afleiding van onmiddellijke bedreigingen

Er is nog een andere dimensie aan dit debat die verder gaat dan geld.

Velen hebben herhaald dat de huidige risico's van AI, zoals extreem geraffineerde diepe vervalsingen en verkeerde informatie, al voldoende zijn om een lang debat en snelle actie te rechtvaardigen. 

Aidan Gomez, een vooraanstaand onderzoeker op het gebied van AI en CEO van Cohere, benadrukte ook het risico van een te sterke focus op doemscenario's. 

In aanloop naar de AI-veiligheidstopGomez wees erop dat onmiddellijke bedreigingen zoals verkeerde informatie en de erosie van sociaal vertrouwen worden overschaduwd door discussies over existentiële risico's op de lange termijn.

"Ik denk dat in termen van existentiële risico's en overheidsbeleid, het geen productief gesprek is om te voeren," verklaarde Gomez, die de noodzaak benadrukte om onmiddellijke risico's prioriteit te geven.

"Wat betreft het overheidsbeleid en waar we ons in de publieke sector op moeten richten - of het proberen te beperken van het risico voor de burgerbevolking - denk ik dat het een afleiding vormt, weg van risico's die veel tastbaarder en directer zijn."

Gomez wijst op de alomtegenwoordige invloed van AI in producten die door miljarden mensen worden gebruikt en benadrukt de dringende noodzaak om risico's aan te pakken die een actieve impact hebben op het publiek. "Deze technologie zit al in producten die door miljarden gebruikers worden gebruikt, zoals bij Google en anderen. Dat brengt een groot aantal nieuwe risico's met zich mee die besproken moeten worden, maar geen van alle zijn ze existentieel, geen van alle zijn doemscenario's," legde hij uit. 

Hij noemt onjuiste informatie een belangrijk punt van zorg, gezien het vermogen van AI-modellen om media te creëren die "vrijwel niet te onderscheiden zijn van door mensen gemaakte teksten, afbeeldingen of media".

Verkeerde informatie is inderdaad volksvijand nummer één als het gaat om AI-risico's, aangezien we al voorbeelden hebben gezien van diepe vervalsingen die worden ingezet bij succesvolle zwendelpraktijken.

Diepe fakes ingezet voor post-tijd bij de Slowaakse verkiezingen lieten zien hoe ze de democratie tastbaar kunnen beïnvloeden. 

Yoshua Bengio, Geoffrey Hinton en Elon Musk nemen deel aan het debat

AI-godfather' Yoshua Bengio heeft samen met een groep van meer dan 200 technologieleiders en onderzoekers een open brief onderschreven waarin wordt gewezen op de dringende noodzaak van onmiddellijke en substantiële actie.

Bengio leidt nu een internationaal rapport dat werd onthuld op de AI Safety Summit in het Verenigd Koninkrijk. Hij is zeer overtuigd van de risico's van AI, net als Geoffrey Hinton, wat betekent dat 2/3 van de 'AI-godfathers' zich op een bepaald niveau zorgen maakt. 


Op zijn website, Bengio schreefIk heb onlangs een open brief ondertekend waarin ik vraag om de ontwikkeling van gigantische AI-systemen die krachtiger zijn dan GPT-4 - systemen die op dit moment de Turingtest doorstaan en dus een mens kunnen laten geloven dat hij in gesprek is met een leeftijdsgenoot in plaats van een machine - te vertragen."

Geoffrey Hinton van het AI-godfather-drietal had Google verlaten om zich uit te spreken over zijn angsten voor AI. Hij ging zelfs zover dat hij zei dat hij spijt had van zijn werk omdat AI misbruikt zou kunnen worden, waarbij hij in een interview zei: "Ik troost mezelf met het normale excuus: als ik het niet had gedaan, had iemand anders het wel gedaan."

Hinton is net als Bengio van mening dat AI ernstige risico's op uitsterven met zich meebrengt. Hij betwijfelt ook of het open-sourcen van modellen de veiligheidsinspanningen kan ondersteunen. 

Hij benadrukte onlangs dat zijn keuze om Google te verlaten in strijd was met de kritische houding van LeCun et al. Hij verklaarde op X: "Andrew Ng beweert dat het idee dat AI ons kan laten uitsterven een samenzwering van de grote techneuten is. Een gegeven dat niet past bij deze complottheorie is dat ik Google heb verlaten zodat ik vrijuit kon spreken over de existentiële dreiging."

Hinton, Bengio en andere top AI-onderzoekers, waaronder de invloedrijke Chinese computerwetenschapper Andrew Yao, hebben onlangs steunde een papier De risico's van AI beschrijven.

In de woorden van Hinton: "Bedrijven zijn van plan om binnen 18 maanden modellen te trainen met 100x meer rekenkracht dan de huidige stand van de techniek. Niemand weet hoe krachtig ze zullen zijn. En er is in wezen geen regelgeving over wat ze met deze modellen kunnen doen."

Dit debat gaat maar door en zal dat blijven doen.

Een X-gebruiker zei het volgende:


LeCun heeft nog een antagonist in Elon Musk, die zelden afwezig is in een X-debat op hoog niveau, vooral niet een debat dat stevig in zijn stuurhut zit (om nog maar te zwijgen van zijn platform).

Musk heeft een goed gedocumenteerde geschiedenis van het uiten van zijn zorgen over AI, maar zijn houding is zeer onvoorspelbaar geworden.

In het recente verleden heeft Musk AI consequent bestempeld als een potentiële existentiële bedreiging voor de mensheid, door te stellen dat het ontwikkelen van complexe AI is als "het oproepen van de demon". Op de AI Safety Summit zei hij echter dat hij dacht dat AI netto positieve voordelen zou opleveren. 

In de afgelopen maanden heeft Musk kritiek geuit op OpenAI, waarbij hij wees op een afwijking van de oorspronkelijke missie van de organisatie en zijn zorgen uitte over de 'closed-source' richting, die sterk beïnvloed wordt door Microsoft. 

Zowel Musk als LeCun zijn het in grote lijnen eens in hun kritiek op closed source AI, wat laat zien dat het verdedigen van de risico's van AI niet altijd hetzelfde is als het afkeuren van open source.

Nu we het toch over open source hebben, laten we eens kijken wat Musk met zijn producten wil doen. AI startup xAI lanceert.

Google DeepMind baas slaat terug op LeCun's 'bangmakerij' claim

Het hoofd van Google DeepMind, Demis Hassabis, reageerde op de beschuldigingen van LeCun en beschuldigde het bedrijf van uitgebreide lobbyactiviteiten om de AI-industrie te domineren. 

In een interview met CNBCHassabis benadrukte dat de betrokkenheid van DeepMind bij AI-discussies geen poging is om "regelgeving te veroveren".

In reactie op deze beweringen verklaarde Hassabis: "Ik ben het behoorlijk oneens met de meeste opmerkingen van Yann." 

Hij schetste drie hoofdcategorieën van risico's in verband met AI en benadrukte het belang van het aanpakken van directe problemen zoals verkeerde informatie, diepe vervalsingen en vooringenomenheid, terwijl hij ook het potentiële misbruik van AI door kwaadwillende actoren en de risico's op lange termijn in verband met kunstmatige algemene intelligentie (AGI) in overweging nam. 

Hij pleitte ervoor om gesprekken over het reguleren van superintelligente AI eerder vroeger dan later te starten om ernstige gevolgen te voorkomen.

Hassabis benadrukte het mondiale karakter van AI-technologie en onderstreepte de noodzaak van internationale samenwerking, waaronder samenwerking met China, om verantwoorde ontwikkelings- en reguleringsnormen vast te stellen. 

Zowel hij als James Manyika, Google's senior vicepresident voor onderzoek, technologie en maatschappij, spraken de wens uit om een wereldwijde consensus over AI te bereiken. Hassabis woonde de AI Safety Summit in het Verenigd Koninkrijk bij, waar hij zich aansloot bij het sentiment van wereldleiders om de nadruk te leggen op AI-veiligheid en -toezicht. 

Ondanks de voortdurende technische spanningen tussen de VS en China en de aarzeling van Amerikaanse techgiganten om commercieel werk te verrichten in China, benadrukte Hassabis de noodzaak van communicatie: "Ik denk dat we in dit stadium met iedereen moeten praten."

Is er een middenweg?

De debatten over de potentiële risico's van AI en de noodzakelijke reacties daarop bereiken een kritiek punt.

De afgelopen weken is het aantal 'officiële gesprekken' over AI toegenomen, maar er zit nog steeds regelgeving in de pijplijn.

Amerikaanse regelgeving en de AI-wet van de EU zullen de eerste harde fundamenten leggen voor AI-governance. 

In de hoek van LeCun wordt een overtuigend argument aangevoerd rondom AI-gelden verdienen in het licht van open-source concurrentie. Van de uitgelekte memo van Google tot de samenhangende existentiële risico's die door grote techbazen in de mainstream media naar voren worden gebracht, hij en zijn medestanders hebben genoeg munitie. 

Het gebrek aan consensus gaat echter verder dan de hoofden van winstgevende AI-ontwikkelaars bij Microsoft, DeepMind, Anthropic, enzovoort.

Bengio en Hinton zijn overwegend ongebonden en wijlen professor Stephen Hawking verklaarde bijvoorbeeld dat het "het einde van het menselijk ras zou kunnen betekenen" en de "ergste gebeurtenis in de geschiedenis van onze beschaving" zou kunnen zijn. 

Onderzoekers hebben aangetoond dat AI-systemen in staat zijn om autonoom doelen ontwikkelenwat catastrofale gevolgen kan hebben als er niet goed mee wordt omgegaan. Andere experimenten hebben aangetoond dat AI-systemen actief op zoek kunnen gaan naar bronnen, energie kunnen verzamelen en stappen kunnen ondernemen om te voorkomen dat ze worden uitgeschakeld. 

Er is solide bewijs voor AI-gerelateerde schade, maar staat dit in verhouding tot de alarmbellen die worden geluid door grote tech-bazen?

En misschien nog belangrijker, kunnen we er echt op vertrouwen dat ze de industrie voor iedereen ethisch behandelen, ongeacht de aan- of afwezigheid van risico's?

Misschien moeten we de acties van big tech zien als de ultieme gok.

AI is waarschijnlijk riskant, maar een select aantal bedrijven wil dat risico bezitten, het tot het uiterste drijven en het naar eigen inzicht vormgeven, goedschiks of kwaadschiks.

Big tech zou het spel zo kunnen laden dat het huis altijd wint zolang het blijft staan. 

Doe mee met de toekomst


SCHRIJF JE VANDAAG NOG IN

Duidelijk, beknopt, uitgebreid. Krijg grip op AI-ontwikkelingen met DailyAI

Sam Jeans

Sam is een wetenschap- en technologieschrijver die bij verschillende AI-startups heeft gewerkt. Als hij niet aan het schrijven is, leest hij medische tijdschriften of graaft hij door dozen met vinylplaten.

×
 
 

GRATIS PDF EXCLUSIEF
Blijf voorop met DailyAI


 

Meld je aan voor onze wekelijkse nieuwsbrief en ontvang exclusieve toegang tot DailyAI's nieuwste eBook: 'Mastering AI Tools: Your 2024 Guide to Enhanced Productivity'.



 
 

* Door u aan te melden voor onze nieuwsbrief accepteert u onze Privacybeleid en onze Algemene voorwaarden