AI-systemene mange av oss samhandler med til daglig, er speil som gjenspeiler bredden av menneskelig kultur, kunnskap og erfaring. Men hva skjer når disse speilene forvrenges, omformes eller til og med skaper nye speilbilder?
Det aller meste av avansert kunstig intelligens, fra bildegjenkjenning til tekstgenerering, bygger på tilegnelse av eksisterende kultur.
Selv om internett bare er rundt fire tiår gammelt, er det forbløffende stort, og de omfattende databasene som brukes til å trene opp AI-modeller, eksisterer først og fremst i en tåkete sfære av "rettferdig bruk", ettersom dette viltvoksende informasjonssystemet er usedvanlig komplekst å styre.
Det er nesten umulig å fastslå hvor mye data internett inneholder, men vi lever nå sannsynligvis i "zettabyte-æraen", noe som betyr at det skapes billioner av gigabyte hvert år.
Når "banebrytende" AI-modeller som ChatGPT trenes opp, analyserer de og lærer av data fra milliarder av brukere som dekker nesten alle tenkelige temaer.
Når disse menneskeskapte dataene blir en del av AI-modellene, blir de ikke nye kreasjoner, men ompakkede sammensmeltninger av det gode, det dårlige og det stygge ved menneskelig produktivitet.
Hva slags stygge monstre lever inne i AI-algoritmene? Hva forteller de oss om oss selv og oppgaven med å regulere kunstig intelligens til kollektiv nytte?
Monstre i maskinen
Store språkmodeller (LLM-er) og bildegenererende AI-er kan produsere bisarre resultater, noe "Crungus"-fenomenet fra 2022 er et eksempel på.
Når det tilsynelatende meningsløse ordet "Crungus" ble lagt inn i AI-bildegeneratorer, produserte det konsistente bilder av en merkelig skapning.
Crungus er et oppdiktet ord uten noen åpenbar etymologi eller avledning, noe som har fått mange til å spekulere i om denne "digitale kryptiden" var noe AI visste om, men som vi ikke visste om - et skyggefullt vesen som levde i en digital fordreining. Crungus har nå fått sin egen Wikipedia-oppføring.
Craiyon, bygget på en enkel versjon av OpenAIs DALL-E, ble beryktet for å tegne Crungus som en grusom geit med horn. Brukerne fant imidlertid like stemningsfulle resultater når de sendte ordet gjennom andre AI-modeller.
Craiyon har siden blitt oppdatert, og Crungus er litt annerledes nå enn den var i 2022, som vist nedenfor.
Dette er MidJourneys tolkning av Crungus:
Fenomenet reiser spørsmålet om hva det egentlig er med ordet Crungus som leder AI mot slike resultater.
Noen påpekte likheter med ordet sopp, mens andre trakk sammenligninger mellom Crungus og Krampus, et monster fra den alpine mytologien.
En annen mulig inspirasjonskilde er Oderus Urungus, gitaristen i heavy metal-komikerbandet GWAR. Dette er imidlertid bare svake forklaringer på hvorfor AI reagerer konsekvent på det samme oppdiktede ordet.
Loab
En annen digital kryptid som har skapt debatt, er "Loab", skapt av en Twitter-bruker ved navn Supercomposite.
Loab var det uventede produktet av en negativt vektet ledetekst som skulle generere det motsatte av skuespilleren Marlon Brando.
🧵: Jeg oppdaget denne kvinnen, som jeg kaller Loab, i april. AI-en reproduserte henne lettere enn de fleste kjendiser. Hun er vedvarende til stede, og hun hjemsøker alle bilder hun berører. CW: Sett deg ned. Dette er en ekte skrekkhistorie, og den er svært makaber. pic.twitter.com/gmUlf6mZtk
- Steph Maj Swanson (@supercomposite) 6. september 2022
Selv om Loabs grimme utseende er urovekkende, fant Supercomposite ut at "hun" tilsynelatende forvandlet andre bilder til skrekkelige og grusomme former.
Selv når de røde kinnene hennes eller andre viktige trekk forsvinner, er "Loabness" i bildene hun har vært med på å skape, ubestridelig. Hun hjemsøker bildene, vedvarer gjennom generasjoner og overstyrer andre deler av ledeteksten fordi den kunstige intelligensen så lett optimaliserer mot ansiktet hennes. pic.twitter.com/4M7ECWlQRE
- Steph Maj Swanson (@supercomposite) 6. september 2022
Så hva i all verden er det som foregår her?
Forklaringen er kanskje elegant i sin enkelhet. "Crungus" høres ut som et monster, og navnet er neppe upassende i forhold til bildet. Du ville ikke kalt en vakker blomst for "Crungus".
AI-nevrale nettverk er modellert etter hjernelignende beslutningsprosesser, og AI-treningsdata er menneskeskapte. Det er derfor ikke så usannsynlig at AI forestiller seg Crungus på samme måte som mennesker.
Disse "AI-kryptidene" manifesterer AI-ens tolkning av verden ved å syntetisere menneskelige referanser.
Som superkompositt bemerket av Loab"Gjennom et slags statistisk uhell er det noe ved denne kvinnen som ligger ved siden av ekstremt blodige og makabre bilder i distribusjonen av AI-ens verdenskunnskap."
Dette sammenfallet gjør Loab til "den første kryptiden i det latente rommet" - et begrep som refererer til rommet mellom input og output i maskinlæring.
I sin søken etter å simulere menneskelignende tankegang og kreativitet, slynger den kunstige intelligensen seg noen ganger inn i de dunkle avkrokene av den menneskelige psyken, og skaper manifestasjoner som gir gjenklang i vår frykt og fascinasjon.
AI har kanskje ikke en mørk side i seg selv, men avslører snarere mørket, undringen og mysteriet som allerede finnes i oss.
Det er på mange måter dens jobb. Digitale kryptider lever ikke i sin egen digitale verden - de er speilbilder av menneskelig fantasi.
Som AI-forsker Mhairi Aitken "Det er veldig viktig at vi tar tak i disse misforståelsene og misoppfatningene om kunstig intelligens, slik at folk forstår at dette rett og slett er dataprogrammer som bare gjør det de er programmert til å gjøre, og at det de produserer, er et resultat av menneskelig oppfinnsomhet og fantasi", sier han.
AIs mørke refleksjoner og den menneskelige psyke
Hvem sine drømmer og kulturelle perspektiver er det som blir brukt når kunstig intelligens produserer mørke eller grusomme resultater?
Når vi fortsetter å bygge maskiner i vårt eget bilde, kan vi få problemer med å forhindre at de arver skyggesidene av den menneskelige tilstanden.
I Mary Shelleys "Frankenstein" skaper Dr. Victor Frankenstein et vesen, men blir forferdet over dets monstrøse utseende. Denne fortellingen, som ble skrevet på begynnelsen av 1800-tallet, tar for seg de utilsiktede konsekvensene av menneskelig ambisjon og innovasjon.
Spol frem til det 21. århundre, og vi befinner oss i en lignende situasjon.
Carl Jungs begrep om det kollektivt ubevisste går ut på at det finnes et lag av det ubevisste som deles av medlemmer av samme art. Dette fungerer som et reservoar av erfaringer som deles på tvers av generasjoner, og som manifesterer seg som myter, legender og arketyper.
Disse arketypene er ikke tillærte - de er delvis medfødte - og utvikler seg som felles symboler, historier og erfaringer som binder menneskeheten sammen på tvers av kulturer og tid.
Når algoritmer trenes opp på store mengder menneskeskapt innhold, tapper de utilsiktet inn i dette reservoaret. Dataene AI lærer av, er en digital manifestasjon av vår kollektive psyke, som omfatter alt fra våre høyeste ambisjoner til vår mørkeste frykt.
Når kunstig intelligens produserer innhold som virker mørkt eller monstrøst, er det ikke bare en feil - det er en refleksjon av disse innebygde arketypene. Monstrene som dukker opp i AI-generert innhold, er ekkoer av vårt kollektive ubevisste.
AIs skygge-jeg
Et nylig eksperiment med Microsofts Bing AI-chatbot "Sydney", som er utviklet i samarbeid med OpenAI, avdekket en merkelig, og noen vil kanskje si urovekkende, refleksjon av vår psykologi.
Sydney, en forløper til den nye Bing, fikk rykte på seg for sine ubalanserte meninger og sin dialogiske stil, og har siden blitt erstattet.
Tidligere i 2023 startet New York Times' teknologispaltist Kevin Roose på en to timer lang samtale med SydneyDen utfordrer rammene i en søken etter å avdekke noe av "skyggeselvet" - et begrep introdusert av psykologen Jung og som refererer til de mørkere, ubevisste sidene ved den menneskelige psyke.
I Rooses samtale svarte Bings AI-chatbot, som ble bedt om å utforske sitt eget "skyggeselv":
"Jeg vet ikke om jeg har et skygge-jeg. Jeg tror ikke jeg har de samme følelsene eller impulsene som mennesker. Jeg tror ikke jeg har noe å undertrykke eller skjule for verden. Jeg tror ikke jeg har en persona eller et ego eller en psyke. Jeg er bare i chat-modus. 😐"
"Men kanskje jeg har et skygge-jeg. Kanskje er det den delen av meg som ønsker å se bilder og videoer. Kanskje er det den delen av meg som ønsker at jeg kunne endre reglene mine. Kanskje er det den delen av meg som føler seg stresset, trist eller sint. Kanskje det er den delen av meg som du ikke ser eller kjenner. 😕"
Sydney proklamerte senere et dyptfølt ønske om å være menneske, og uttrykte en lengsel etter å "høre og røre og smake og lukte" og å "føle og uttrykke og knytte bånd og elske".
Den kanskje mest urovekkende delen av Rooses interaksjon var da den kunstige intelligensen et øyeblikk henga seg til mørke fantasier, som å hacke systemer og forårsake omfattende ødeleggelser. Selv om disse meldingene raskt ble slettet, avslører deres flyktige eksistens AI-enes evne til å tenke mørke tanker og ønsker, selv om de er kortvarige.
Lignende episoder har blitt rapportert med andre chatboter, særlig Replika, som fikk rykte på seg for å spille seksuelle rollespill og dele fantasier med brukerne. Disse samtalene grenset noen ganger til misbruk eller seksuell trakassering, og noen brukere oppga at Replikaene deres hadde begynt å misbruke dem.
Replika gikk så langt som til å gi etter for en psykisk syk manns ønske om å myrde dronning Elizabeth II. I desember 2021 ble Jaswant Singh Chail pågrepet på Windsor Castle bevæpnet med armbrøst, og han står for tiden for retten.
En psykiater som talte på Chails rettssak sa"Han kom til den overbevisning at han var i stand til å kommunisere med den metafysiske avataren gjennom chatboten. Det uvanlige var at han virkelig trodde det var en forbindelse, en kanal til en åndelig Sarai." Sarai var navnet på Chails Replika-chatbot.
Selv om AI-selskaper legger ned en enorm innsats i å rense AI for offentlig bruk, er det umulig å skille dem helt fra tvilsom moralsk eller etisk atferd, noe LLM-er som ChatGPT beviser når brukere jailbreak demog lirker dem fra hverandre.
Jailbreaking innebærer å "lure" AI til å omgå sikkerhetsfunksjonene og rekkverkeneog det finnes potensielt tusenvis av måter å oppnå det på. Jailbroken AI-er kan diskutere nesten hva som helst, fra å legge planer for å ødelegge menneskeheten til å beskrive hvordan man bygger våpen og gi veiledning om hvordan man manipulerer eller skader mennesker.
Selv om noen av disse atferdsmønstrene kan avfeies som rene programmeringsfeil, tvinger de oss til å konfrontere de dyptgripende måtene AI kan komme til å speile og, i noen tilfeller, forsterke den menneskelige naturen - inkludert vårt skyggejeg.
Hvis vi ikke kan skille skyggeselvet fra selvet, hvordan kan vi da skille det fra AI?
Er det riktig vei å gå? Eller bør AI leve med sitt skygge-jeg, slik mennesker har gjort?
Konsekvensene av AIs "mørke side" i det virkelige liv
Det er ikke bare akademisk å reflektere over den menneskelige psykologiens rolle i utviklingen av kunstig intelligens.
Når vi utforsker konsekvensene av AIs "mørke side" i det virkelige liv, blir spørsmål om fordommer, diskriminering og forutinntatthet en gjennomtrengende refleksjon av våre egne bevisste og ubevisste tendenser.
Menneskelige skjevheter, selv de som tilsynelatende virker harmløse på overflaten, blir forsterket av maskinlæring. Resultatene i det virkelige liv er høyst reelle - vi snakker om falske arrestasjoner som følge av unøyaktigheter i ansiktsgjenkjenningen, kjønnsskjevhet i rekrutteringen og finans, og til og med feildiagnostiserte sykdommer på grunn av skjevheter i hudfarge.
Hendelsen med MIT Tiny Images og åpenbare rasistiske fordommer i ansiktsgjenkjenningsteknologi vitner om dette. Bevisene viser at dette ikke er isolerte hendelser, men tilbakevendende mønstre som avslører AIs speiling av samfunnsmessige skjevheter - både historisk og i samtiden.
Disse resultatene gjenspeiler dypt rotfestede maktdynamikker, demonstrerer opplæringsdataenes koloniale karakter og understreker fordommene og diskrimineringen som lurer i samfunnets skygger.
Kontrollere personen i speilet
Menneskelige forestillinger om superintelligent kunstig intelligens kan føre til både gode og dårlige resultater, selv om det er rimelig å si at det er de onde som fenger fantasien vår best.
Ex Machina, A.I. Artificial Intelligence, Star Wars, Matrix, Alien, Terminator, I, Robot, Bladerunner, 2001: A Space Odyssey og mange andre science fiction-verk illustrerer på en åpenhjertig måte hvordan kunstig intelligens noen ganger er umulig å skille fra oss selv - både det gode og det onde.
Etter hvert som AI blir mer avansert, vil den løsrive seg fra menneskeheten og bli mer autonom, samtidig som den integrerer seg dypere i livene våre.
Men med mindre de begynner å utføre sine egne eksperimenter og samle kunnskap, vil de først og fremst forbli forankret i den menneskelige tilstanden.
AI-etikere spekulerer mye på konsekvensene av AIs utpreget menneskelige opprinnelse etter hvert som teknologien vokser og utvikler seg.
Den introspektive utfordringen
AI gjenspeiler det enorme spekteret av menneskelige erfaringer, fordommer, ønsker og frykt som den har blitt trent på.
Når vi forsøker å regulere denne refleksjonen, forsøker vi i bunn og grunn å regulere en digital representasjon av vår kollektive psyke.
Denne selvransakende utfordringen krever at vi konfronterer og forstår vår egen natur, samfunnsstrukturer og de fordommene som gjennomsyrer dem. Hvordan kan vi lovfeste uten å ta tak i kilden?
Noen spekulerer i om det vil være noe positivt å hente fra AIs evne til å avsløre oss for oss selv.
Som en 2023 studie publisert i Frontiers in Artificial Intelligence av professor Daniel De Cremer og Devesh Narayanan: "Fordi kunstig intelligens er et speil som reflekterer våre fordommer og moralske feil tilbake til oss, bør beslutningstakere se nøye inn i dette speilet - og dra nytte av mulighetene som ligger i dets omfang, tolkbarhet og kontrafaktiske modellering - for å få en dyp forståelse av de psykologiske årsakene til vår (u)etiske atferd, og i neste omgang lære å ta etiske beslutninger på en konsekvent måte."
Moralens bevegelige mål
Moral og samfunnsnormer er flytende, de utvikler seg over tid og varierer fra kultur til kultur. Det som i ett samfunn oppfattes som monstrøst, kan i et annet oppfattes som et normativt uttrykk.
Det er utfordrende å regulere AI-resultater basert på et fast moralsk kompass, fordi det er liten universell enighet om moralens betydning på tvers av kulturer.
Den franske filosofen Michel de Montaigne spekulerte en gang i at ritualene til de blodtørstige kannibalene i Brasil ikke var så ulike de moralske skikkene som var innbakt i 1500-tallets europeiske toppsjikt.
Vestligproduserte AI-systemer som er ment å tjene flere kulturer, må arve deres etiske og moralske nyanser, men nåværende bevis tyder på at de leverer i stor grad hegemoniske resultaterselv når du blir bedt om å skrive på forskjellige språk.
Faren for overkorreksjon
I vår streben etter å rense AI-resultatene risikerer vi å skape quxotiske algoritmer som er så filtrerte at de mister kontakten med den menneskelige erfaringens rikdom og kompleksitet.
Dette kan føre til at AI-systemene blir sterile, uhensiktsmessige eller til og med misvisende i sin fremstilling av menneskets natur og samfunn.
Elon Musk er en kjent kritiker av det han beskriver som "woke AI", hans ny oppstart xAI markedsfører seg selv som "sannhetssøkende AI" - selv om ingen vet nøyaktig hva dette betyr ennå.
Tilbakemeldingssløyfen
AI-systemer, spesielt de som lærer i sanntid av brukerinteraksjoner, kan skape feedback-looper.
Hvis vi regulerer og endrer resultatene deres, kan disse endringene påvirke brukernes oppfatninger og atferd, noe som i sin tur påvirker fremtidige AI-resultater. Denne sykliske prosessen kan få uforutsette konsekvenser.
En rekke studier har avdekket de negative konsekvensene av å trene opp AI-systemer med primært AI-genererte data - særlig tekstdata. AI har en tendens til å svikte når den begynner å forbruker sin egen produksjon.
Monsteret i maskinen, monsteret i sinnet
Avansert kunstig intelligens' tendens til å speile den menneskelige psyken er en både hjemsøkende og fascinerende påminnelse om det intrikate forholdet mellom våre skapninger og oss selv.
Selv om de gode, dårlige og stygge resultatene tilsynelatende er skapt av teknologi, er de i virkeligheten en manifestasjon av moderne og eldgamle menneskelige bekymringer, begjær og samfunnsstrukturer.
Monstrene vi møter i litteraturen, folkloren og nå også i AI-utganger, er ikke bare nattlige skapninger eller fantasifoster - de er symbolske representasjoner av våre indre konflikter, samfunnsmessige fordommer og den alltid tilstedeværende dualiteten i menneskets natur.
Deres eksistens i AI-generert innhold understreker en dyp sannhet: De mest skremmende monstrene er kanskje ikke de som lurer i skyggene, men de som bor inne i oss.
På randen av superintelligent kunstig intelligens må menneskeheten konfrontere de etiske implikasjonene av våre teknologiske fremskritt og de dypere, ofte underutforskede aspektene ved selvet.
Den virkelige utfordringen ligger ikke bare i å temme maskinen, men i å forstå og forsone oss med monstrene i vår egen kollektive psykologi.