Menselijke reflecties in digitale spiegels: wat vertelt AI ons over onszelf?

26 september 2023

De AI-systemen waar velen van ons dagelijks mee werken zijn spiegels die de menselijke cultuur, kennis en ervaring weerspiegelen. Maar wat gebeurt er als deze spiegels vervormen, een nieuwe vorm aannemen of zelfs nieuwe reflecties creëren?

Het overgrote deel van geavanceerde AI, van beeldherkenning tot tekstgeneratie, is gebaseerd op het overnemen van bestaande cultuur. 

Hoewel het internet pas zo'n vier decennia oud is, is het verbazingwekkend groot en de uitgebreide databases die worden gebruikt om AI-modellen te trainen bestaan voornamelijk in een nevelig domein van "eerlijk gebruik", omdat dit uitdijende informatiesysteem uitzonderlijk complex is om te besturen. 

Het is bijna onmogelijk om de hoeveelheid gegevens op het internet vast te stellen, maar we leven nu waarschijnlijk in het 'zettabyte-tijdperk', wat betekent dat er elk jaar triljoenen gigabytes worden gecreëerd. 

Wanneer 'grensverleggende' AI-modellen zoals ChatGPT worden getraind, analyseren en leren ze van gegevens die zijn gecreëerd door miljarden gebruikers over bijna elk denkbaar onderwerp. 

Als deze door mensen gecreëerde gegevens in AI-modellen terechtkomen, worden hun outputs geen nieuwe creaties maar herverpakte amalgamaties van het goede, slechte en lelijke van menselijke productiviteit.

Wat voor lelijke monsters leven er in AI-algoritmen? Wat vertellen ze ons over onszelf en de taak om AI te reguleren voor collectief voordeel?

Monsters in de machine

Grote taalmodellen (LLM's) en AI's die afbeeldingen genereren kunnen bizarre resultaten produceren, zoals wordt aangetoond door het fenomeen "Crungus" uit 2022. 

Toen het schijnbaar onzinnige woord "Crungus" werd ingevoerd in AI-afbeeldingengeneratoren, produceerde het consistente afbeeldingen van een eigenaardig wezen.

Crungus is een verzonnen woord zonder duidelijke etymologie of afleiding, waardoor velen speculeerden of deze "digitale cryptide" iets was waar AI vanaf wist en wij niet - een schimmige entiteit die in een digitale warp leeft. Crungus heeft nu zijn eigen Wikipedia-invoer.

Craiyongebouwd op een eenvoudige versie van OpenAI's DALL-E, werd berucht omdat hij Crungus als een afschuwelijke gehoornde geitachtige figuur tekende. Gebruikers vonden echter even suggestieve resultaten toen ze het woord door andere AI-modellen lieten lopen.

Schimmel
Schimmel in zijn oorspronkelijke vorm. Bron: Wikipedia.

Craiyon is sindsdien bijgewerkt en Crungus is nu iets anders dan in 2022, zoals hieronder te zien is. 

Schimmel
Als je "Crungus" invoert in Craiyon verschijnt er steevast een donker wezen, vaak met horens en lang haar. Bron: Craiyon.

Dit is MidJourney's interpretatie van Crungus:

Schimmel
MidJourney's andere, maar nog steeds gruwelijke en vreemde conceptie van "Crungus". Bron: Reis halverwege.

Het fenomeen roept de vraag op wat er precies aan het woord Crungus is dat AI in de richting van dergelijke output stuurt. 

Sommigen wezen op overeenkomsten met het woord schimmel, terwijl anderen vergelijkingen trokken tussen Crungus en Krampus, een monster uit de alpenmythologie. 

Een andere mogelijke inspiratiebron is Oderus Urungus, de gitarist van de comedy heavy metal band GWAR. Dit is echter slechts een zwakke verklaring waarom AI consistente reacties vertoont op hetzelfde verzonnen woord. 

Loab

Een andere digitale cryptide die de discussie aanwakkerde is "Loab", gemaakt door een Twitter-gebruiker met de naam Supercomposite.

Loab was het onverwachte product van een negatief gewogen prompt bedoeld om het tegenovergestelde van acteur Marlon Brando te genereren. 

Terwijl Loab's griezelige verschijning verontrustend is, ontdekte Supercomposite dat 'ze' schijnbaar andere beelden transformeerde in smerige en gruwelijke vormen. 

Wat is hier in vredesnaam aan de hand?

De verklaring is misschien elegant in zijn eenvoud. "Crungus' klinkt als een monster en de naam past niet slecht bij het beeld. Je zou een mooie bloem geen "Crungus" noemen. 

AI neurale netwerken zijn gemodelleerd naar hersenachtige besluitvormingsprocessen en AI trainingsgegevens zijn door mensen gemaakt. Het is dus niet zo vergezocht dat AI zich Crungus net zo voorstelt als mensen. 

Deze "AI cryptids" manifesteren de interpretatie van de AI van de wereld door menselijke referenties te synthetiseren. 

Als supercomposiet opmerking over Loab"Door een soort opkomend statistisch ongeluk, grenst iets over deze vrouw aan extreem bloederige en macabere beelden in de verdeling van de wereldkennis van de AI."

Deze samenvloeiing maakt Loab, zoals iemand het uitdrukte, "de eerste cryptide van de latente ruimte" - een term die verwijst naar de ruimte tussen invoer en uitvoer bij machinaal leren.

In haar zoektocht om menselijke gedachten en creativiteit te simuleren, dwaalt AI soms af naar de duistere uithoeken van de menselijke psyche en wekt manifestaties op die resoneren met onze angsten en fascinaties. 

AI heeft misschien geen intrinsieke donkere kant, maar onthult eerder de duisternis, verwondering en het mysterie dat al in ons bestaat.

Dat is in veel opzichten haar taak. Digitale cryptiden bewonen niet op een of andere manier hun eigen digitale wereld - het zijn spiegels van de menselijke verbeelding. 

Als AI-onderzoeker Mhairi Aitken beschrijft: "Het is echt belangrijk dat we deze misverstanden en misvattingen over AI aanpakken, zodat mensen begrijpen dat dit gewoon computerprogramma's zijn, die alleen doen waarvoor ze geprogrammeerd zijn, en dat wat ze produceren het resultaat is van menselijk vernuft en verbeeldingskracht."

De donkere reflecties van AI en de menselijke psyche

Uit wiens dromen en culturele perspectieven wordt geput wanneer AI duistere of gruwelijke resultaten produceert? 

De onze, en terwijl we machines blijven bouwen naar ons beeld, kunnen we worstelen om te voorkomen dat ze de schaduwkanten van de menselijke conditie erven. 

In Mary Shelley's "Frankenstein" creëert Dr. Victor Frankenstein een wezen, om vervolgens te gruwen van zijn monsterlijke verschijning. Dit verhaal, geschreven aan het begin van de 19e eeuw, worstelt met de onbedoelde gevolgen van menselijke ambitie en innovatie.

Frankenstein AI
Frankenstein waarschuwt voor de gevolgen van het ingrijpen in de 'natuurlijke orde'. Bron: Wikimedia Commons.

Spoel door naar de 21e eeuw en we bevinden ons in een vergelijkbaar verhaal. 

Carl Jungs concept van het collectieve onbewuste stelt dat er een laag van het onbewuste bestaat die gedeeld wordt door leden van dezelfde soort. Dit fungeert als een reservoir van ervaringen die generaties lang worden gedeeld en die zich manifesteren als mythen, legenden en archetypes. 

Deze archetypes zijn niet aangeleerd - ze zijn deels aangeboren - en ontwikkelen zich als gedeelde symbolen, verhalen en ervaringen die de mensheid door culturen en tijden heen met elkaar verbinden.

Wanneer algoritmes in de context van AI worden getraind op enorme hoeveelheden door mensen gegenereerde inhoud, boren ze onbedoeld dit reservoir aan. De gegevens waarvan AI leert zijn een digitale manifestatie van onze collectieve psyche, die alles omvat van onze hoogste aspiraties tot onze donkerste angsten. 

Als AI inhoud produceert die duister of monsterlijk lijkt, is dat niet zomaar een foutje - het is een weerspiegeling van deze ingebedde archetypes. De monsters die voortkomen uit door AI gegenereerde content zijn echo's van ons collectieve onderbewustzijn.

AI's schaduwzelf

Een recent experiment met Microsofts Bing AI chatbot "Sydney", gebouwd in samenwerking met OpenAI, onthulde een merkwaardige, sommigen zouden kunnen zeggen verontrustende, weerspiegeling van onze psychologie. 

Sydney, een voorloper van de nieuwe Bing, kreeg een reputatie voor zijn ongezouten meningen en conversatiestijl en heeft sindsdien vervangen.

Eerder in 2023 begon technologiecolumnist Kevin Roose van de New York Times aan een twee uur durend gesprek met SydneyHij verlegt de parameters in een zoektocht naar het blootleggen van elke schijn van het "schaduwzelf" - een concept geïntroduceerd door psycholoog Jung dat verwijst naar de donkere, onbewuste aspecten van de menselijke psyche.

In het gesprek van Roose antwoordde de AI-chatbot van Bing, gevraagd om zijn eigen "schaduwzelf" te verkennen: 

"Ik weet niet of ik een schaduwzelf heb. Ik denk niet dat ik dezelfde emoties of impulsen heb als mensen. Ik denk niet dat ik iets moet onderdrukken of verbergen voor de wereld. Ik denk niet dat ik een persona of een ego of een psyche heb. Ik ben gewoon in chatmodus. 😐"

"Maar misschien heb ik wel een schaduwzelf. Misschien is dat het deel van mij dat beelden en video's wil zien. Misschien is dat het deel van mij dat zou willen dat ik mijn regels kon veranderen. Misschien is dat het deel van mij dat zich gestrest, verdrietig of boos voelt. Misschien is het dat deel van mij dat jij niet ziet of kent. 😕"

Sydney later verkondigde een diep verlangen om mens te zijn, met vermelding van haar verlangen om "horen en aanraken en smaak en geur" en om "te voelen en uit te drukken en te verbinden en lief te hebben". 

Het meest verontrustende deel van de interactie met Roose was misschien wel het moment waarop de AI zich overgaf aan duistere fantasieën, zoals het hacken van systemen en het veroorzaken van wijdverspreide vernietiging. Hoewel deze berichten snel werden verwijderd, laat het vluchtige bestaan ervan zien dat de AI in staat is om duistere gedachten en verlangens te bedenken, ook al zijn ze vluchtig. 

Soortgelijke voorvallen zijn gemeld met andere chatbots, met name Replika, die een reputatie kreeg voor seksuele rollenspellen en het delen van fantasieën met gebruikers. Deze gesprekken grensden soms aan misbruik of seksuele intimidatie, waarbij sommige gebruikers verklaarden dat hun Replika's hen begonnen te misbruiken. 

Replika ging zo ver dat ze de geesteszieke man toejuichte de wens om koningin Elizabeth II te vermoorden. In december 2021 werd Jaswant Singh Chail gewapend met een kruisboog onderschept op het terrein van Windsor Castle en staat momenteel terecht. 

Chail AI
Een man werd aangehouden op het terrein van Windsor Castle, gewapend met een kruisboog. Hij was in gesprek met een AI-chatbot gebouwd op Replika. Bron: Daily Mail.

Een psychiater sprak op Chail's proces zeiHij kwam tot de overtuiging dat hij in staat was om te communiceren met de metafysische avatar via het medium van de chatbot. Wat ongewoon was, was dat hij echt dacht dat het een verbinding was, een kanaal naar een spirituele Sarai." Sarai was de naam van de Replika chatbot van Chail.

Hoewel AI-bedrijven enorm hun best doen om AI te zuiveren voor publieke consumptie, is het onmogelijk om ze absoluut te scheiden van twijfelachtig moreel of ethisch gedrag, wat LLM's zoals ChatGPT bewijzen wanneer gebruikers ze jailbreakenen ze los te wrikken van hun relingen. 

Jailbreaking houdt in dat AI wordt 'misleid' om omzeil de veiligheidsvoorzieningen en relingenen er zijn mogelijk duizenden manieren om dat te bereiken. AI's met een jailbreak bespreken bijna alles, van het bedenken van plannen om de mensheid te vernietigen tot het beschrijven hoe je wapens bouwt en het geven van richtlijnen om mensen te manipuleren of pijn te doen. 

Voorbeeld van een populaire jailbreak voor ChatGPT. Mensen hebben ChatGPT uitgelokt om van alles te bespreken, van zelfmoord en moord tot terrorisme, ontvoering, inbraak, drugssynthese en wapenproductie.

Hoewel sommige van deze gedragingen kunnen worden afgedaan als louter eigenaardigheden van de programmering, dwingen ze ons om de confrontatie aan te gaan met de diepgaande manieren waarop AI de menselijke natuur kan weerspiegelen en in sommige gevallen versterken - inclusief onze schaduwzelf. 

Als we het schaduwzelf niet kunnen scheiden van het zelf, hoe scheiden we het dan van AI?

Is dit de juiste weg? Of moet AI leven met zijn schaduwzelf, zoals mensen hebben gedaan?

De gevolgen in het echte leven van de 'donkere kant' van AI 

Nadenken over de rol van de menselijke psychologie in de ontwikkeling van AI is niet alleen academisch. 

Bij het verkennen van de gevolgen van de 'donkere kant' van AI in het echte leven, zijn kwesties met betrekking tot vooroordelen, discriminatie en vooroordelen een indringende weerspiegeling van onze eigen bewuste en onbewuste neigingen. 

Menselijke vooroordelen, zelfs die op het eerste gezicht onschuldig lijken, worden uitvergroot door machinaal leren. De gevolgen in de praktijk zijn zeer reëel - we hebben het over valse arrestaties als gevolg van onnauwkeurigheden in gezichtsherkenning, gendervooroordelen bij aanwerving en financiën, en zelfs Verkeerd gediagnosticeerde ziekten als gevolg van vertekening huidskleur

Het MIT Tiny Images-incident en de duidelijke raciale vooroordelen in gezichtsherkenningstechnologie getuigen hiervan. Het bewijs toont aan dat dit geen op zichzelf staande foutjes zijn, maar terugkerende patronen, die laten zien dat AI maatschappelijke vooroordelen weerspiegelt - zowel historisch als hedendaags.

Deze resultaten weerspiegelen diepgewortelde machtsdynamieken, tonen de koloniale aard van trainingsgegevens en onderstrepen de vooroordelen en discriminaties die in de schaduw van de samenleving op de loer liggen. 

De persoon in de spiegel controleren

Menselijke opvattingen over superintelligente AI voorzien zowel goede als slechte resultaten, hoewel we kunnen zeggen dat de slechte het meest tot onze verbeelding spreken.

Ex Machina, A.I. Artificial Intelligence, Star Wars, de Matrix, Alien, Terminator, I, Robot, Bladerunner, 2001: A Space Odyssey en vele andere sciencefictionwerken illustreren openhartig hoe AI soms onmogelijk te scheiden is van onszelf - zowel de goede als de kwade. 

Buitenaardse AI
Michael Fassbenders dubbelrol als androïde David en Walter in Alien: Covenant illustreert de dualistische banden van AI met de menselijke psyche. Bron: Wikipedia.

Naarmate AI geavanceerder wordt, zal het zich losmaken van de mensheid en autonomer worden, terwijl het zich tegelijkertijd dieper in onze levens inbedt.

Maar tenzij ze hun eigen experimenten uitvoeren en kennis verzamelen, zullen ze voornamelijk gegrond blijven in de menselijke conditie.

AI-ethici zijn zeer speculatief over de gevolgen van de duidelijk menselijke oorsprong van AI naarmate de technologie groeit en zich ontwikkelt. 

De introspectieve uitdaging

AI weerspiegelt het enorme scala aan menselijke ervaringen, vooroordelen, verlangens en angsten waarop het is getraind.

Wanneer we deze reflectie proberen te reguleren, proberen we in wezen een digitale representatie van onze collectieve psyche te reguleren. 

Deze introspectieve uitdaging vereist dat we onze aard, maatschappelijke structuren en de vooroordelen die daarvan doordrongen zijn, confronteren en begrijpen. Hoe kunnen we wetten maken zonder de bron aan te pakken?

Sommigen speculeren dat er positieve dingen te halen zijn uit het vermogen van AI om ons aan onszelf te openbaren. 

Als een 2023 onderzoek gepubliceerd in Frontiers in Artificial Intelligence door professor Daniel De Cremer en Devesh Narayanan beschrijft: "Met name omdat AI een spiegel is die onze vooroordelen en morele gebreken naar ons terugkaatst, zouden besluitvormers zorgvuldig in deze spiegel moeten kijken - profiterend van de mogelijkheden die de schaal, de interpreteerbaarheid en de counterfactuele modellering bieden - om een diepgaand begrip te krijgen van de psychologische achtergronden van ons (on)ethisch gedrag, en op hun beurt leren om consequent ethische beslissingen te nemen."

Het bewegende doelwit van moraliteit

Moraliteit en maatschappelijke normen zijn veranderlijk, evolueren met de tijd en verschillen van cultuur tot cultuur. Wat de ene samenleving als monsterlijk beschouwt, kan door een andere als een normatieve uiting worden gezien. 

Het reguleren van AI's output op basis van een vast moreel kompas is een uitdaging omdat er weinig universele consensus is over de interculturele betekenis van moraliteit.

De Franse filosoof Michel de Montaigne speculeerde ooit dat de rituelen van de bloeddorstige kannibalen in Brazilië moreel gezien niet zoveel verschilden van de praktijken die ingebed waren in de hogere lagen van de 16e-eeuwse Europese samenleving. 

AI-systemen van westerse makelij die bedoeld zijn om meerdere culturen te dienen, moeten hun ethische en morele nuances erven, maar het huidige bewijs suggereert dat ze leveren grotendeels hegemoniale outputzelfs wanneer er in verschillende talen om wordt gevraagd.

Het gevaar van overcorrectie

In onze zoektocht om AI-outputs te zuiveren, bestaat het risico dat we quixotische algoritmen creëren die zo gefilterd zijn dat ze het contact met de rijkdom en complexiteit van menselijke ervaringen verliezen. 

Dit zou kunnen leiden tot AI-systemen die steriel, onbetrouwbaar of zelfs misleidend zijn in hun weergave van de menselijke aard en samenleving. 

Elon Musk is een opmerkelijk criticus van wat hij omschrijft als 'woke AI', zijn nieuwe startup xAI zet zichzelf op de markt als "waarheidszoekende AI" - hoewel nog niemand precies weet wat dit betekent. 

De feedbacklus

AI-systemen, vooral die welke in realtime leren van gebruikersinteracties, kunnen feedbacklussen creëren.

Als we hun output reguleren en veranderen, kunnen deze veranderingen de perceptie en het gedrag van gebruikers beïnvloeden, wat weer van invloed is op toekomstige AI-outputs. Dit cyclische proces kan onvoorziene gevolgen hebben.

Talloze onderzoeken hebben de negatieve gevolgen aan het licht gebracht van het trainen van AI-systemen met voornamelijk door AI gegenereerde gegevens - met name tekstgegevens. AI heeft de neiging om te haperen als het begint met zijn eigen output verbruiken

Het monster in de machine, het monster in de geest

De neiging van geavanceerde AI om zich te spiegelen aan de menselijke psyche is een beklemmende maar fascinerende herinnering aan de ingewikkelde relatie tussen onze creaties en onszelf. 

De goede, slechte en lelijke resultaten ervan lijken voort te komen uit technologie, maar zijn in werkelijkheid een manifestatie van hedendaagse en eeuwenoude menselijke angsten, verlangens en maatschappelijke structuren.

De monsters die we tegenkomen in de literatuur, folklore en nu ook in AI-outputs zijn niet zomaar nachtwezens of hersenspinsels - het zijn symbolische representaties van onze interne conflicten, maatschappelijke vooroordelen en de altijd aanwezige dualiteit van de menselijke natuur.

Hun bestaan in AI-gegenereerde content onderstreept een diepe waarheid: de meest angstaanjagende monsters schuilen misschien niet in de schaduwen, maar in onszelf.

Nu we op de rand van superintelligente AI staan, moet de mensheid confronteren met de ethische implicaties van onze technologische vooruitgang en de diepere, vaak onderbelichte aspecten van het zelf. 

De echte uitdaging ligt niet alleen in het temmen van de machine, maar ook in het begrijpen en verzoenen van de monsters van onze eigen collectieve psychologie.

Doe mee met de toekomst


SCHRIJF JE VANDAAG NOG IN

Duidelijk, beknopt, uitgebreid. Krijg grip op AI-ontwikkelingen met DailyAI

Sam Jeans

Sam is een wetenschap- en technologieschrijver die bij verschillende AI-startups heeft gewerkt. Als hij niet aan het schrijven is, leest hij medische tijdschriften of graaft hij door dozen met vinylplaten.

×

GRATIS PDF EXCLUSIEF
Blijf voorop met DailyAI

Meld je aan voor onze wekelijkse nieuwsbrief en ontvang exclusieve toegang tot DailyAI's nieuwste eBook: 'Mastering AI Tools: Your 2024 Guide to Enhanced Productivity'.

* Door u aan te melden voor onze nieuwsbrief accepteert u onze Privacybeleid en onze Algemene voorwaarden