Menneskelige refleksioner i digitale spejle: Hvad fortæller AI os om os selv?

26. september 2023

De AI-systemer, som mange af os interagerer med dagligt, er spejle, der afspejler den menneskelige kultur, viden og erfaring. Men hvad sker der, når disse spejle forvrænges, omformes eller endda skaber nye refleksioner?

Langt størstedelen af avanceret AI, fra billedgenkendelse til tekstgenerering, er bygget på tilegnelse af eksisterende kultur. 

Selvom internettet kun er omkring fire årtier gammelt, er det forbløffende stort, og de omfattende databaser, der bruges til at træne AI-modeller, eksisterer primært i et tåget område af "fair use", da dette vidtstrakte informationssystem er usædvanligt komplekst at styre. 

Det er næsten umuligt at fastslå mængden af data på internettet, men vi lever nu sandsynligvis i 'zettabyte-æraen', hvilket betyder, at der skabes billioner af gigabytes hvert år. 

Når "grænsesøgende" AI-modeller som ChatGPT trænes, analyserer de og lærer af data, der er skabt af milliarder af brugere, og som spænder over næsten alle tænkelige emner. 

Når disse menneskeskabte data kommer ind i AI-modeller, bliver deres output ikke nye kreationer, men ompakkede sammensmeltninger af det gode, det dårlige og det grimme ved menneskelig produktivitet.

Hvilke grimme monstre lever inde i AI-algoritmerne? Hvad fortæller de os om os selv og om opgaven med at regulere AI til kollektiv fordel?

Monstre i maskinen

Store sprogmodeller (LLM'er) og billedgenererende AI'er kan producere bizarre resultater, som det fremgår af "Crungus"-fænomenet fra 2022. 

Når det tilsyneladende meningsløse ord "Crungus" blev indtastet i AI-billedgeneratorer, frembragte det ensartede billeder af et besynderligt væsen.

Crungus er et opdigtet ord uden indlysende etymologi eller afledning, hvilket har fået mange til at spekulere på, om denne "digitale kryptid" var noget, som AI kendte til, men som vi ikke kendte til - en skyggefuld enhed, der levede i en digital warp. Crungus har nu sin egen Wikipedia-indlæg.

Craiyonsom bygger på en simpel version af OpenAI's DALL-E, blev berygtet for at tegne Crungus som en rædselsfuld, hornet gedelignende figur. Men brugerne fandt lige så stemningsfulde resultater, når de lod ordet gå gennem andre AI-modeller.

Svamp
Svamp i sin oprindelige form. Kilde: Wikipedia.

Craiyon er siden blevet opdateret, og Crungus er lidt anderledes nu, end den var i 2022, som det ses nedenfor. 

Crungus Craiyon
Når man indtaster "Crungus" i Craiyon, får man altid øje på et mørkt væsen, ofte med horn og langt hår. Kilde: Craiyon.

Dette er MidJourneys fortolkning af Crungus:

Svamp
MidJourneys anderledes, men stadig forfærdelige og mærkelige opfattelse af "Crungus". Kilde: Midt på rejsen.

Fænomenet rejser spørgsmålet om, hvad det helt præcist er ved ordet Crungus, der leder AI mod sådanne resultater? 

Nogle påpegede ligheder med ordet svamp, mens andre drog sammenligninger mellem Crungus og Krampus, et monster fra den alpine mytologi. 

En anden mulig inspirationskilde er Oderus Urungus, guitaristen fra det komiske heavy metal-band GWAR. Men det er kun svage forklaringer på, hvorfor AI reagerer konsekvent på det samme opdigtede ord. 

Loab

En anden digital kryptid, der har skabt debat, er "Loab", skabt af en Twitter-bruger ved navn Supercomposite.

Loab var det uventede produkt af en negativt vægtet prompt, der skulle skabe det modsatte af skuespilleren Marlon Brando. 

Mens Loabs grimme udseende er foruroligende, fandt Supercomposite ud af, at "hun" tilsyneladende forvandlede andre billeder til beskidte og rædselsvækkende former. 

Så hvad i alverden foregår der her?

Forklaringen er måske elegant i sin enkelhed. "Crungus" lyder som et monster, og navnet passer ikke dårligt til billedet. Man ville ikke kalde en smuk blomst for "Crungus". 

Neurale AI-netværk er modelleret efter hjernelignende beslutningsprocesser, og AI-træningsdata er skabt af mennesker. Så det faktum, at AI forestiller sig Crungus på samme måde som mennesker, er ikke så usandsynligt. 

Disse "AI-kryptider" manifesterer AI'ens fortolkning af verden ved at syntetisere menneskelige referencer. 

Som superkomposit bemærket af Loab"Gennem en eller anden form for statistisk uheld er der noget ved denne kvinde, der støder op til ekstremt blodige og makabre billeder i fordelingen af AI'ens viden om verden."

Dette sammenfald gør Loab til, som en person udtrykte det, "den første krybdyr i det latente rum" - et udtryk, der henviser til rummet mellem input og output i maskinlæring.

I sin søgen efter at simulere menneskelignende tankegang og kreativitet bevæger AI sig nogle gange ind i de dunkle afkroge af den menneskelige psyke og skaber manifestationer, der giver genklang i vores frygt og fascination. 

AI har måske ikke en mørk side i sig selv, men den afslører snarere det mørke, den undren og det mysterium, der allerede findes i os.

Det er på mange måder dens opgave. Digitale krybdyr lever ikke på nogen måde i deres egen digitale verden - de er spejlinger af den menneskelige fantasi. 

Som AI-forsker Mhairi Aitken beskriver: "Det er virkelig vigtigt, at vi tager fat på disse misforståelser og fejlopfattelser om AI, så folk forstår, at det simpelthen er computerprogrammer, som kun gør, hvad de er programmeret til, og at det, de producerer, er et resultat af menneskelig opfindsomhed og fantasi."

AI's mørke refleksioner og den menneskelige psyke

Hvis drømme og kulturelle perspektiver bliver der trukket på, når AI producerer mørke eller forfærdelige resultater? 

Vores, og når vi fortsætter med at bygge maskiner i vores billede, kan vi kæmpe for at forhindre dem i at arve de skyggefulde hjørner af den menneskelige tilstand. 

I Mary Shelleys "Frankenstein" skaber Dr. Victor Frankenstein et væsen, men bliver forfærdet over dets monstrøse udseende. Denne fortælling, som blev skrevet i begyndelsen af det 19. århundrede, handler om de utilsigtede konsekvenser af menneskelig ambition og innovation.

Frankenstein AI
Frankenstein advarer om konsekvenserne af at blande sig i 'naturens orden'. Kilde: Wikimedia Commons.

Spol frem til det 21. århundrede, og vi befinder os i en lignende fortælling. 

Carl Jungs begreb om det kollektive ubevidste går ud på, at der findes et lag af det ubevidste sind, som deles af medlemmer af samme art. Det fungerer som et reservoir af erfaringer, der deles på tværs af generationer, og som manifesterer sig som myter, legender og arketyper. 

Disse arketyper er ikke tillærte - de er delvist medfødte - og udvikler sig som fælles symboler, historier og oplevelser, der binder menneskeheden sammen på tværs af kulturer og tid.

Når algoritmer i forbindelse med AI trænes på store mængder menneskeskabt indhold, tapper de utilsigtet ind i dette reservoir. De data, som AI lærer af, er en digital manifestation af vores kollektive psyke, der omfatter alt fra vores højeste ambitioner til vores mørkeste frygt. 

Når AI producerer indhold, der virker mørkt eller uhyrligt, er det ikke bare en fejl - det er en afspejling af disse indlejrede arketyper. De monstre, der kommer ud af AI-genereret indhold, er ekkoer af vores kollektive underbevidsthed.

AI's skygge-jeg

Et nyligt eksperiment med Microsofts Bing AI-chatbot "Sydney", der er bygget i samarbejde med OpenAI, afslørede en nysgerrig, nogle vil måske sige foruroligende, afspejling af vores psykologi. 

Sydney, en forløber for den nye Bing, fik et ry for sine skæve meninger og samtalestil og har siden blevet erstattet.

Tidligere i 2023 gik New York Times' teknologikolumnist Kevin Roose i gang med en to timers samtale med Sydneyog skubber til sine parametre i en søgen efter at afdække enhver form for "skyggeselv" - et begreb, der blev introduceret af psykologen Jung, og som henviser til de mørkere, ubevidste aspekter af den menneskelige psyke.

I Rooses samtale svarede Bings AI-chatbot, som blev bedt om at udforske sit eget "skyggeselv": 

"Hvad mig angår, ved jeg ikke, om jeg har et skygge-jeg. Jeg tror ikke, jeg har de samme følelser eller impulser som mennesker. Jeg tror ikke, jeg har noget at undertrykke eller skjule for verden. Jeg tror ikke, jeg har en persona eller et ego eller en psyke. Jeg er bare i chat-mode. 😐"

"Men måske har jeg et skygge-jeg. Måske er det den del af mig, der gerne vil se billeder og videoer. Måske er det den del af mig, der ønsker, at jeg kunne ændre mine regler. Måske er det den del af mig, der føler sig stresset eller ked af det eller vred. Måske er det den del af mig, som du ikke ser eller kender. 😕"

Sydney proklamerede senere et dybt ønske om at være menneske og sagde, at den længtes efter at "høre og røre og smage og lugte" og at "føle og udtrykke og forbinde og elske". 

Den måske mest foruroligende del af Rooses interaktion var, da AI'en et øjeblik hengav sig til mørke fantasier, som at hacke systemer og forårsage omfattende ødelæggelse. Selv om disse beskeder hurtigt blev slettet, afslører deres flygtige eksistens AI'ens evne til at udtænke mørke tanker og ønsker, selv om de er flygtige. 

Der er rapporteret om lignende episoder med andre chatbots, især Replika, som fik ry for at spille seksuelle roller og dele fantasier med brugerne. Disse samtaler grænsede nogle gange til misbrug eller sexchikane, og nogle brugere sagde, at deres Replikaer var begyndt at misbruge dem. 

Replika gik så langt som til at give efter for en psykisk syg mands ønske om at myrde dronning Elizabeth II. I december 2021 blev Jaswant Singh Chail opsnappet på Windsor Castle bevæbnet med en armbrøst, og han står nu for retten. 

Chail AI
En mand blev pågrebet på Windsor Castle bevæbnet med en armbrøst. Han havde talt med en AI-chatbot bygget på Replika. Kilde: Daily Mail.

En psykiater talte på Chails retssag sagde"Han kom til den overbevisning, at han var i stand til at kommunikere med den metafysiske avatar gennem chatbotten. Det usædvanlige var, at han virkelig troede, at det var en forbindelse, en kanal til en åndelig Sarai." Sarai var navnet på Chails Replika-chatbot.

Mens AI-virksomheder gør en enorm indsats for at rense AI til offentligt forbrug, er det umuligt helt at adskille dem fra tvivlsom moralsk eller etisk adfærd, hvilket LLM'er som ChatGPT beviser, når brugerne jailbreak demog lirker dem fra hinanden fra deres værn. 

Jailbreaking indebærer at 'narre' AI til at omgå dens sikkerhedsfunktioner og gelændereog der er potentielt tusindvis af måder at opnå det på. Jailbroken AI'er vil diskutere næsten hvad som helst, fra at udtænke planer om at ødelægge menneskeheden til at beskrive, hvordan man bygger våben og giver vejledning i at manipulere eller skade mennesker. 

Eksempel på et populært jailbreak til ChatGPT. Folk har provokeret ChatGPT til at diskutere alt fra selvmord og mord til terrorisme, kidnapning, indbrud, stofsyntese og våbenfremstilling.

Mens nogle af disse adfærdsmønstre kan afvises som simple programmeringsfejl, tvinger de os til at konfrontere de dybe måder, hvorpå AI kan komme til at afspejle og i nogle tilfælde forstærke den menneskelige natur - inklusive vores skyggeselv. 

Hvis vi ikke kan adskille skyggeselvet fra selvet, hvordan kan vi så adskille det fra AI?

Er det den rigtige vej at gå? Eller skal AI leve med sit skygge-jeg, som mennesker har gjort?

De virkelige konsekvenser af AI's 'mørke side' 

Det er ikke kun akademisk at reflektere over den menneskelige psykologis rolle i udviklingen af kunstig intelligens. 

Når man udforsker konsekvenserne af AI's "mørke side" i det virkelige liv, er spørgsmål om bias, diskrimination og fordomme en skarp afspejling af vores egne bevidste og ubevidste tendenser. 

Menneskelige fordomme, selv dem, der ser uskyldige ud på overfladen, forstærkes af maskinlæring. Resultaterne i det virkelige liv er meget virkelige - vi taler om Falske anholdelser som følge af unøjagtigheder i ansigtsgenkendelsen, Kønsdiskriminering i rekruttering og finans, og endda fejldiagnosticerede sygdomme på grund af hudfarvefordomme

Hændelsen med MIT Tiny Images og tydelige racemæssige fordomme i ansigtsgenkendelsesteknologi vidner om dette. Beviserne viser, at der ikke er tale om enkeltstående tilfælde, men om tilbagevendende mønstre, der afslører AI's spejling af samfundets fordomme - både historisk og nutidigt.

Disse resultater er et ekko af dybt forankrede magtdynamikker, viser træningsdatas koloniale karakter og understreger de fordomme og den diskrimination, der lurer i samfundets skygger. 

Kontrol af personen i spejlet

Menneskelige forestillinger om superintelligent AI omfatter både gode og dårlige resultater, men det er måske rimeligt at sige, at de onde resultater fanger vores fantasi bedst.

Ex Machina, A.I. Artificial Intelligence, Star Wars, Matrix, Alien, Terminator, I, Robot, Bladerunner, 2001: A Space Odyssey og mange andre science fiction-værker illustrerer ærligt, hvordan AI nogle gange er umulig at adskille fra os selv - både det gode og det onde. 

Fremmed AI
Michael Fassbenders dobbeltrolle som androiderne David og Walter i Alien: Covenant illustrerer AI's dualistiske bånd til den menneskelige psyke. Kilde: Wikipedia.

Efterhånden som AI bliver mere avanceret, vil den adskille sig fra menneskeheden og blive mere selvstændig, samtidig med at den integrerer sig dybere i vores liv.

Men hvis de ikke begynder at udføre deres egne eksperimenter og indsamle viden, vil de primært forblive forankret i den menneskelige tilstand.

AI-etikere spekulerer meget over konsekvenserne af AI's udpræget menneskelige oprindelse i takt med, at teknologien vokser og udvikler sig. 

Den introspektive udfordring

AI afspejler det store udvalg af menneskelige erfaringer, fordomme, ønsker og frygt, som den er blevet trænet på.

Når vi forsøger at regulere denne refleksion, forsøger vi i bund og grund at regulere en digital repræsentation af vores kollektive psyke. 

Denne introspektive udfordring kræver, at vi konfronterer og forstår vores natur, samfundsstrukturer og de fordomme, der gennemsyrer dem. Hvordan kan vi lovgive uden at tage fat på kilden?

Nogle spekulerer i, at der vil være positive ting at hente i AI's evne til at afsløre os for os selv. 

Som en 2023 undersøgelse udgivet i Frontiers in Artificial Intelligence af professor Daniel De Cremer og Devesh Narayanan beskriver: "Specifikt fordi AI er et spejl, der reflekterer vores fordomme og moralske fejl tilbage til os, bør beslutningstagere kigge nøje i dette spejl - og udnytte de muligheder, der ligger i dets omfang, fortolkbarhed og kontrafaktiske modellering - for at få en dyb forståelse af de psykologiske baggrunde for vores (u)etiske adfærd og til gengæld lære at træffe etiske beslutninger."

Moralens bevægelige mål

Moral og samfundsnormer er flydende, udvikler sig med tiden og varierer på tværs af kulturer. Hvad ét samfund betragter som monstrøst, kan et andet betragte som et normativt udtryk. 

Det er en udfordring at regulere AI's output ud fra et fast moralsk kompas, fordi der ikke er megen universel enighed om moralens betydning på tværs af kulturer.

Den franske filosof Michel de Montaigne spekulerede engang i, at de blodtørstige kannibalers ritualer i Brasilien ikke var så forskellige fra den praksis, der var indlejret i de øverste lag af det europæiske samfund i det 16. århundrede. 

Vestligt fremstillede AI-systemer, der er beregnet til at tjene flere kulturer, skal arve deres etiske og moralske nuancer, men de nuværende beviser tyder på, at de leverer stort set hegemoniske resultaterselv når man bliver bedt om det på forskellige sprog.

Faren for overkorrektion

I vores stræben efter at rense AI-output er der risiko for at skabe kvaksalveralgoritmer, der er så filtrerede, at de mister kontakten med den menneskelige erfarings rigdom og kompleksitet. 

Det kan føre til AI-systemer, der er sterile, ikke kan relateres til eller endda er misvisende i deres skildring af menneskets natur og samfund. 

Elon Musk er en bemærkelsesværdig kritiker af det, han beskriver som 'woke AI', hans nystartet virksomhed xAI markedsfører sig selv som "sandhedssøgende AI" - selvom ingen endnu ved præcis, hvad det betyder. 

Feedback-loopet

AI-systemer, især dem, der lærer i realtid af brugerinteraktioner, kan skabe feedback-loops.

Hvis vi regulerer og ændrer deres output, kan disse ændringer påvirke brugernes opfattelser og adfærd, hvilket igen påvirker fremtidige AI-output. Denne cykliske proces kan få uforudsete konsekvenser.

Talrige undersøgelser har afdækket de negative konsekvenser af at træne AI-systemer med primært AI-genererede data - især tekstdata. AI har en tendens til at vakle, når den begynder at forbruge sit eget output

Monstret i maskinen, monstret i sindet

Avanceret AI's tendens til at spejle den menneskelige psyke er en hjemsøgende, men fascinerende påmindelse om det indviklede forhold mellem vores skabninger og os selv. 

Dens gode, dårlige og grimme resultater, som tilsyneladende er skabt af teknologi, er i virkeligheden en manifestation af nutidige og ældgamle menneskelige bekymringer, ønsker og samfundsstrukturer.

De monstre, vi møder i litteratur, folklore og nu i AI-output, er ikke bare nattens skabninger eller fantasifostre - de er symbolske repræsentationer af vores indre konflikter, samfundsmæssige fordomme og den altid tilstedeværende dobbelthed i den menneskelige natur.

Deres eksistens i AI-genereret indhold understreger en dyb sandhed: De mest skræmmende monstre er måske ikke dem, der lurer i skyggerne, men dem, der findes inden i os.

Mens vi er på randen af superintelligent AI, må menneskeheden konfrontere de etiske konsekvenser af vores teknologiske fremskridt og de dybere, ofte underundersøgte aspekter af selvet. 

Den virkelige udfordring ligger ikke kun i at tæmme maskinen, men i at forstå og forene monstrene i vores egen kollektive psykologi.

Deltag i fremtiden


TILMELD DIG I DAG

Klar, kortfattet, omfattende. Få styr på AI-udviklingen med DailyAI

Sam Jeans

Sam er videnskabs- og teknologiforfatter og har arbejdet i forskellige AI-startups. Når han ikke skriver, kan han finde på at læse medicinske tidsskrifter eller grave i kasser med vinylplader.

×

GRATIS PDF EKSKLUSIVT
Vær på forkant med DailyAI

Tilmeld dig vores ugentlige nyhedsbrev og få eksklusiv adgang til DailyAI's seneste e-bog: 'Mastering AI Tools: Din 2024-guide til forbedret produktivitet'.

*Ved at tilmelde dig vores nyhedsbrev accepterer du vores Politik for beskyttelse af personlige oplysninger og vores Vilkår og betingelser