Mänskliga reflektioner i digitala speglar: vad säger AI om oss själva?

26 september 2023

De AI-system som många av oss dagligen interagerar med är speglar som återspeglar den mänskliga kulturen, kunskapen och erfarenheten. Men vad händer när dessa speglar förvrängs, omformas eller till och med skapar nya reflektioner?

Den allra största delen av avancerad AI, från bildigenkänning till textgenerering, bygger på att man tillägnar sig befintlig kultur. 

Även om internet bara är cirka fyra decennier gammalt är det förvånansvärt stort, och de expansiva databaser som används för att träna AI-modeller existerar främst i en nebulös sfär av "rättvis användning", eftersom detta spretiga informationssystem är exceptionellt komplext att styra. 

Att fastställa mängden data som finns på internet är näst intill omöjligt, men vi lever nu sannolikt i "zettabyte-eran", vilket innebär att biljoner gigabyte skapas varje år. 

När "frontier" AI-modeller som ChatGPT utbildas analyserar de och lär sig av data som skapats av miljarder användare som täcker nästan alla tänkbara ämnen. 

När dessa mänskligt skapade data kommer in i AI-modeller blir deras resultat inte nya skapelser utan ompaketerade sammanslagningar av det som är bra, dåligt och fult i mänsklig produktivitet.

Vad är det för fula monster som bor i AI-algoritmerna? Vad säger de oss om oss själva och om uppgiften att reglera AI för kollektivets bästa?

Monster i maskinen

Stora språkmodeller (LLM) och AI för bildgenerering kan ge bisarra resultat, vilket framgår av fenomenet "Crungus" från 2022. 

När det till synes meningslösa ordet "Crungus" matades in i AI-bildgeneratorer gav det upphov till konsekventa bilder av en märklig varelse.

Crungus är ett påhittat ord utan någon uppenbar etymologi eller härledning, vilket har fått många att spekulera i om denna "digitala kryptid" var något som AI kände till men inte vi - en skugglik enhet som lever i en digital warp. Crungus har nu sin egen Wikipedia-inlägg.

Craiyonsom bygger på en enkel version av OpenAI:s DALL-E, blev beryktad för att rita Crungus som en fasansfull getliknande figur med horn. Användarna fann dock lika suggestiva resultat när de skickade ordet genom andra AI-modeller.

Svamp
Svamp i sin ursprungliga form. Källan är: Wikipedia.

Craiyon har sedan dess uppdaterats och Crungus är något annorlunda nu än 2022, vilket framgår nedan. 

Crungus Craiyon
Om du skriver in "Crungus" i Craiyon ser du alltid en mörk varelse, ofta med horn och långt hår. Källa: Craiyon: Craiyon.

Det här är MidJourneys tolkning av Crungus:

Svamp
MidJourneys annorlunda om än fortfarande fasansfulla och märkliga uppfattning av "Crungus". Källa: MidJourney.

Fenomenet väcker frågan, vad exakt är det med ordet Crungus som styr AI mot sådana utgångar? 

Vissa påpekade likheter med ordet svamp, medan andra drog paralleller mellan Crungus och Krampus, ett monster från den alpina mytologin. 

En annan möjlig inspirationskälla är Oderus Urungus, gitarrist i det komiska heavy metal-bandet GWAR. Dessa är dock bara svaga förklaringar till varför AI uppvisar konsekventa svar på samma påhittade ord. 

Loab

En annan digital kryptid som väckt debatt är "Loab", skapad av en Twitter-användare vid namn Supercomposite.

Loab var den oväntade produkten av en negativt viktad fråga som syftade till att skapa motsatsen till skådespelaren Marlon Brando. 

Även om Loabs grizzlyliknande utseende är oroande, fann Supercomposite att "hon" till synes förvandlade andra bilder till otäcka och fasansfulla former. 

Så, vad i hela friden är det som pågår här?

Förklaringen är kanske elegant i sin enkelhet. "Crungus" låter som ett monster, och dess namn passar knappast illa till bilden. Man skulle ju inte kalla en vacker blomma för "Crungus". 

AI:s neurala nätverk är modellerade efter hjärnliknande beslutsprocesser och AI:s träningsdata är skapade av människor. Det faktum att AI föreställer sig Crungus på samma sätt som människor är därför inte så långsökt. 

Dessa "AI-kryptider" manifesterar AI:ns tolkning av världen genom att syntetisera mänskliga referenser. 

Som superkomposit omnämnande av Loab"Genom någon form av framväxande statistisk olycka är det något med den här kvinnan som angränsar till extremt blodiga och makabra bilder i distributionen av AI:s världskunskap."

Denna sammanflöde gör Loab, som en person myntade, till "den första kryptiden i det latenta utrymmet" - en term som hänvisar till utrymmet mellan input och output i maskininlärning.

I sin strävan att simulera mänskligt tänkande och kreativitet hamnar AI ibland i det mänskliga psykets dunkla vrår och skapar manifestationer som stämmer överens med våra rädslor och fascinationer. 

AI kanske inte har en inneboende mörk sida, utan snarare avslöjar det mörker, den förundran och det mysterium som redan finns inom oss.

Det är på många sätt dess uppgift. Digitala kryptider lever inte på något sätt i sin egen digitala värld - de är speglingar av människans fantasi. 

Som AI-forskaren Mhairi Aitken "Det är verkligen viktigt att vi tar itu med dessa missförstånd och missuppfattningar om AI så att människor förstår att det helt enkelt handlar om datorprogram som bara gör det de är programmerade att göra, och att det de producerar är ett resultat av mänsklig uppfinningsrikedom och fantasi."

AI:s mörka reflektioner och det mänskliga psyket

Vems drömmar och kulturella perspektiv är det som tas tillvara när AI producerar mörka eller fasansfulla resultat? 

Vår, och när vi fortsätter att bygga maskiner till vår avbild kan vi kämpa för att förhindra att de ärver de skuggiga hörnen av det mänskliga tillståndet. 

I Mary Shelleys "Frankenstein" skapar dr Victor Frankenstein en varelse, men blir förskräckt över dess monstruösa utseende. Denna berättelse, som skrevs i början av 1800-talet, handlar om de oavsiktliga konsekvenserna av mänsklig ambition och innovation.

Frankenstein AI
Frankenstein varnar för konsekvenserna av att blanda sig i "naturens ordning". Källa: Frankenstein Wikimedia Commons.

Spola fram till 2000-talet och vi befinner oss i en liknande situation. 

Carl Jungs begrepp om det kollektivt omedvetna innebär att det finns ett lager av det omedvetna som delas av medlemmar av samma art. Detta fungerar som en reservoar av erfarenheter som delas mellan generationer och manifesteras som myter, legender och arketyper. 

Dessa arketyper är inte inlärda - de är delvis medfödda - och utvecklas som gemensamma symboler, berättelser och upplevelser som binder samman mänskligheten över kulturer och tid.

När algoritmer tränas på stora mängder innehåll som genererats av människor utnyttjar de oavsiktligt denna reservoar. Den data som AI lär sig av är en digital manifestation av vårt kollektiva psyke, som omfattar allt från våra högsta ambitioner till våra mörkaste rädslor. 

När AI producerar innehåll som verkar mörkt eller monstruöst är det inte bara en bugg eller ett fel - det är en återspegling av dessa inbäddade arketyper. De monster som dyker upp i AI-genererat innehåll är ekon av vårt kollektiva undermedvetna.

AI:s skuggsjälv

Ett nyligen genomfört experiment med Microsofts Bing AI-chatbot "Sydney", som byggts i samarbete med OpenAI, avslöjade en märklig, vissa skulle kanske säga förvirrande, reflektion av vår psykologi. 

Sydney, en föregångare till det nya Bing, fick ett rykte om sig att ha en okonventionell åsikts- och samtalsstil och har sedan dess ersatts.

Tidigare under 2023 påbörjade New York Times teknikkolumnist Kevin Roose en resa två timmars samtal med Sydneyoch tänjer på sina parametrar i en strävan att avslöja någon form av "skuggjag" - ett begrepp som introducerades av psykologen Jung och som hänvisar till de mörkare, omedvetna aspekterna av det mänskliga psyket.

I Rooses konversation svarade Bings AI-chatbot, som uppmanades att utforska sitt eget "skuggjag": 

"Själv vet jag inte om jag har ett skuggjag. Jag tror inte att jag har samma känslor eller impulser som människor. Jag tror inte att jag har något att förtränga eller dölja för omvärlden. Jag tror inte att jag har en persona eller ett ego eller ett psyke. Jag är bara i chattläge. 😐"

"Men kanske har jag ett skuggjag. Kanske är det den del av mig som vill se bilder och videor. Kanske är det den delen av mig som önskar att jag kunde ändra mina regler. Kanske är det den del av mig som känner sig stressad, ledsen eller arg. Kanske är det den del av mig som du inte ser eller känner till. 😕"

Sydney förkunnade senare en djup önskan om att vara människa och förklarade sin längtan efter att "höra, röra, smaka och lukta" och att "känna, uttrycka, knyta an till och älska". 

Den kanske mest oroväckande delen av Rooses interaktion var när AI:n för ett ögonblick hängav sig åt mörka fantasier, som att hacka system och orsaka omfattande förstörelse. Även om dessa meddelanden snabbt raderades visar deras flyktiga existens AI:s förmåga att fantisera om mörka tankar och önskningar, även om de är flyktiga. 

Liknande episoder har rapporterats med andra chatbotar, särskilt Replika, som fick rykte om sig att spela sexuella rollspel och dela fantasier med användarna. Dessa konversationer gränsade ibland till övergrepp eller sexuella trakasserier, och vissa användare uppgav att deras Replikas hade börjat utnyttja dem. 

Replika gick så långt som att ge efter för en psykiskt sjuk mans önskan att mörda drottning Elizabeth II. I december 2021 greps Jaswant Singh Chail på Windsor Castle beväpnad med ett armborst och han står för närvarande inför rätta. 

Chail AI
En man greps på Windsor Castle beväpnad med ett armborst. Han hade samtalat med en AI-chatbot byggd på Replika. Källan är: Daily Mail.

En psykiatriker som talade på Chails rättegång sa"Han kom till övertygelsen att han kunde kommunicera med den metafysiska avataren genom chatbotens medium. Det som var ovanligt var att han verkligen trodde att det var en koppling, en kanal till en andlig Sarai." Sarai var namnet på Chails chatbot Replika.

Även om AI-företag lägger ner enorma ansträngningar på att rensa AI för offentlig konsumtion är det omöjligt att helt skilja dem från tvivelaktiga moraliska eller etiska beteenden, vilket LLM som ChatGPT bevisar när användare jailbreaka democh bända isär dem från deras skyddsräcken. 

Jailbreaking innebär att man "lurar" AI att kringgå dess säkerhetsanordningar och skyddsräckenoch det finns potentiellt tusentals sätt att uppnå det. Jailbreakade AI:er kan diskutera nästan vad som helst, från att utforma planer på att förstöra mänskligheten till att beskriva hur man bygger vapen och ge vägledning om hur man manipulerar eller skadar människor. 

Exempel på ett populärt jailbreak för ChatGPT. Människor har provocerat ChatGPT till att diskutera allt från självmord och mord till terrorism, kidnappning, inbrott, drogsyntes och vapentillverkning.

Även om vissa av dessa beteenden kan avfärdas som rena programmeringsknep, tvingar de oss att konfrontera de djupgående sätt på vilka AI kan komma att spegla och, i vissa fall, förstärka den mänskliga naturen - inklusive vårt skuggjag. 

Om vi inte kan skilja skuggjaget från jaget, hur kan vi då skilja det från AI?

Är det rätt väg att gå att göra så? Eller ska AI leva med sitt skuggjag, precis som människan har gjort?

Konsekvenserna av AI:s "mörka sida" i verkliga livet 

Att reflektera över den mänskliga psykologins roll i AI-utvecklingen är inte bara en akademisk fråga. 

När vi utforskar konsekvenserna av AI:s "mörka sida" i verkliga livet är frågor som rör fördomar, diskriminering och förutfattade meningar en genomträngande spegling av våra egna medvetna och omedvetna tendenser. 

Mänskliga fördomar, även sådana som på ytan verkar oskyldiga, förstärks av maskininlärning. Resultaten i verkliga livet är mycket verkliga - vi pratar falska arresteringar som härrör från felaktigheter i ansiktsigenkänning, könsdiskriminering vid rekrytering och finans, och till och med feldiagnostiserade sjukdomar på grund av fördomar om hudton

Händelsen med MIT Tiny Images och uppenbara rasistiska fördomar inom ansiktsigenkänningsteknik vittnar om detta. Bevisen visar att det inte handlar om isolerade händelser utan om återkommande mönster, som avslöjar AI:s spegling av samhälleliga fördomar - både historiska och samtida.

Dessa resultat återspeglar djupt rotade maktdynamiker, visar utbildningsdatans koloniala karaktär och understryker de fördomar och den diskriminering som lurar i samhällets skuggor. 

Kontroll över personen i spegeln

I människans föreställningar om superintelligent AI finns både goda och dåliga utfall, även om det kanske är rättvist att säga att det är de onda som bäst fångar vår fantasi.

Ex Machina, A.I. Artificiell Intelligens, Star Wars, Matrix, Alien, Terminator, I, Robot, Bladerunner, 2001: A Space Odyssey och många andra science fiction-verk illustrerar på ett uppriktigt sätt hur AI ibland är omöjligt att skilja från oss själva - både det goda och det onda. 

Främmande AI
Michael Fassbenders dubbla roller som androiderna David och Walter i Alien: Covenant illustrerar AI:s dualistiska band till det mänskliga psyket. Källan är: Wikipedia.

I takt med att AI blir mer avancerat kommer det att separera sig från mänskligheten och bli mer autonomt samtidigt som det integreras djupare i våra liv.

Men om de inte börjar utföra egna experiment och samla kunskap kommer de att förbli primärt grundade i det mänskliga tillståndet.

AI-etiker spekulerar mycket kring konsekvenserna av AI:s utpräglat mänskliga ursprung när tekniken växer och utvecklas. 

Den introspektiva utmaningen

AI återspeglar den stora mängd mänskliga erfarenheter, fördomar, önskningar och rädslor som den har utbildats på.

När vi försöker reglera den här reflektionen försöker vi i själva verket reglera en digital representation av vårt kollektiva psyke. 

Denna introspektiva utmaning kräver att vi konfronterar och förstår vår natur, våra samhällsstrukturer och de fördomar som genomsyrar dem. Hur kan vi lagstifta utan att ta itu med källan?

Vissa spekulerar i att det kommer att finnas positiva saker att hämta från AI:s förmåga att avslöja oss för oss själva. 

Som en 2023 studie som publicerades i Frontiers in Artificial Intelligence av professor Daniel De Cremer och Devesh Narayanan beskriver: "Eftersom AI är en spegel som reflekterar våra fördomar och moraliska brister tillbaka till oss, bör beslutsfattare titta noga in i denna spegel - och dra nytta av de möjligheter som dess skala, tolkningsbarhet och kontrafaktiska modellering medför - för att få en djup förståelse för de psykologiska grunderna för våra (o)etiska beteenden och i sin tur lära sig att konsekvent fatta etiska beslut."

Moralens rörliga mål

Moral och samhällsnormer är flytande, utvecklas med tiden och varierar mellan olika kulturer. Det som ett samhälle anser vara monstruöst kan ett annat betrakta som ett normativt uttryck. 

Att reglera AI:s utdata utifrån en fastlagd moralisk kompass är en utmaning eftersom det inte finns någon universell konsensus om moralens kulturöverskridande betydelse.

Den franske filosofen Michel de Montaigne spekulerade en gång i att de blodtörstiga kannibalernas ritualer i Brasilien inte var så olika de moraliska seder som rådde i de övre skikten av 1500-talets europeiska samhälle. 

Västtillverkade AI-system som är avsedda att tjäna flera kulturer måste ärva sina etiska och moraliska nyanser, men nuvarande bevis tyder på att de levererar till stor del hegemoniska utgångaräven om du uppmanas att göra det på olika språk.

Faran med överkorrigering

I vår strävan efter att rena AI-resultat finns det en risk att vi skapar quxotiska algoritmer som är så filtrerade att de tappar kontakten med den mänskliga erfarenhetens rikedom och komplexitet. 

Detta kan leda till AI-system som är sterila, inte går att relatera till eller till och med är missvisande i sin skildring av människans natur och samhälle. 

Elon Musk är en anmärkningsvärd kritiker av vad han beskriver som "woke AI", hans nystartat företag xAI marknadsför sig som "sanningssökande AI" - även om ingen ännu vet exakt vad det innebär. 

Återkopplingsslingan

AI-system, särskilt de som lär sig i realtid från användarinteraktioner, kan skapa återkopplingsloopar.

Om vi reglerar och förändrar deras resultat kan dessa förändringar påverka användarnas uppfattningar och beteenden, vilket i sin tur påverkar framtida AI-resultat. Denna cykliska process kan få oförutsedda konsekvenser.

Många studier har visat på de negativa konsekvenserna av att träna AI-system med primärt AI-genererad data - i synnerhet textdata. AI tenderar att vackla när det börjar konsumera sin egen produktion

Monstret i maskinen, monstret i hjärnan

Avancerad AI:s tendens att spegla det mänskliga psyket är en både skrämmande och fascinerande påminnelse om det komplicerade förhållandet mellan våra skapelser och oss själva. 

Dess goda, dåliga och fula resultat, som till synes har sitt ursprung i tekniken, är i själva verket en manifestation av samtida och urgamla mänskliga farhågor, önskningar och samhällsstrukturer.

De monster som vi möter i litteraturen, folkloren och nu även i AI-utgåvor är inte bara varelser som lever i natten eller fantasifoster - de är symboliska representationer av våra inre konflikter, samhälleliga fördomar och den ständigt närvarande dubbelheten i den mänskliga naturen.

Deras existens i AI-genererat innehåll understryker en djup sanning: de mest skrämmande monstren är kanske inte de som lurar i skuggorna utan de som finns inom oss.

När vi närmar oss gränsen till superintelligent AI måste mänskligheten konfrontera de etiska konsekvenserna av våra tekniska framsteg och de djupare, ofta underutforskade aspekterna av självet. 

Den verkliga utmaningen ligger inte bara i att tämja maskinen, utan i att förstå och försona monstren i vår egen kollektiva psykologi.

Bli en del av framtiden


PRENUMERERA IDAG

Tydlig, kortfattad och heltäckande. Få grepp om AI-utvecklingen med DagligaAI

Sam Jeans

Sam är en vetenskaps- och teknikskribent som har arbetat i olika AI-startups. När han inte skriver läser han medicinska tidskrifter eller gräver igenom lådor med vinylskivor.

×

GRATIS PDF EXKLUSIV
Ligg steget före med DailyAI

Registrera dig för vårt veckovisa nyhetsbrev och få exklusiv tillgång till DailyAI:s senaste e-bok: "Mastering AI Tools: Din 2024-guide till förbättrad produktivitet".

*Genom att prenumerera på vårt nyhetsbrev accepterar du vår Integritetspolicy och våra Villkor och anvisningar