Er kunstig intelligens i ferd med å få et visst bevissthetsnivå? Hvordan vet vi om og når den gjør det?
Store språkmodeller (LLM-er) kan delta i realistiske samtaler og generere tekst om ulike emner, noe som har satt i gang debatter om når de blir sansende eller bevisste - begreper som ofte knyttes sammen, men som likevel er separate.
Sentience handler først og fremst om sansning og bevissthet, mens bevissthet er mer kompleks og overordnet.
Så sent som tidligere i år, etter å ha testet OpenAIs GPT-4, angitt at modellen viste "gnister" av "generell intelligens" - et begrep som brukes for å definere fleksibel, tilpasningsdyktig AI med høye kognitive evner.
Enda mer kontroversielt er det at Blake Lemoine, en tidligere Google-ingeniør, hevdet at Googles LaMDA AI hadde nådd et nivå av bevissthet. Lemoine sa om LaMDA: "Google vil kanskje kalle dette å dele proprietær eiendom. Jeg kaller det å dele en diskusjon jeg hadde med en av mine kolleger" - denne "kollegaen" var AI-systemet som uttrykte "frykt" for å "bli slått av".
I et forsøk på å belyse debatten rundt AI-bevissthet har et tverrfaglig team av forskere innen filosofi, databehandling og nevrovitenskap gjennomført en omfattende undersøkelse av dagens mest banebrytende AI-systemer.
Den studieledet av Robert Long og hans kolleger ved Center for AI Safety (CAIS), en ideell organisasjon med base i San Francisco, undersøkte flere teorier om menneskelig bevissthet. De utarbeidet en liste med 14 "indikatoregenskaper" som en bevisst AI sannsynligvis ville ha.
CAIS er den samme ideelle organisasjonen som la frem åtte forslag til potensielle risikoer for AI i juni.
Etter å ha analysert resultatene fant teamet til slutt ut at de mest komplekse modellene ikke klarte så godt som alle bevissthetstester de ble utsatt for.
Forskerne evaluerte flere AI-modeller, blant annet DeepMinds adaptive agent (ADa) og PaLM-Ebeskrevet som en legemliggjort multimodal LLM-robot.
Ved å sammenligne disse AI-ene med de 14 indikatorene fant forskerne ingen vesentlige bevis som tydet på at noen av AI-modellene hadde bevissthet.
Mer om studien
I denne tverrfaglige studien analyseres en rekke teorier om bevissthet - som fortsatt er et dårlig beskrevet begrep i den vitenskapelige litteraturen - og de anvendes på dagens AI-moduser.
Selv om studien ikke klarte å fastslå at dagens AI-er har bevissthet, legger den grunnlaget for fremtidige analyser, og gir i bunn og grunn en "sjekkliste" som forskere kan referere til når de analyserer egenskapene til AI-ene sine.
Å forstå bevissthet er også viktig for å kunne informere den offentlige debatten om kunstig intelligens.
Bevissthet er imidlertid ikke et binært begrep, og det er fortsatt svært vanskelig å fastslå grensene.
Noen forskere tror at bevissthet vil utvikle seg spontant når AI nærmer seg en "singularitet", som i hovedsak markerer det punktet der kompleksiteten i AI-systemene overgår menneskelig kognisjon.
Her er de 14 indikatorene på bevissthet som forskerne vurderte:
Teori om tilbakevendende prosessering (RPT)
Teorien om tilbakevendende prosessering fokuserer på de tidsmessige aspektene ved informasjonsbehandling.
I bevissthetssammenheng legger det vekt på hvordan informasjon opprettholdes og oppdateres på en loop-lignende måte over tid.
Dette anses som avgjørende for å bygge opp en rikdom av bevisste opplevelser.
RPT-1: Inndatamoduler som bruker algoritmisk rekurrens
Algoritmisk gjentakelse refererer her til gjentatt syklisk behandling av informasjon.
Tenk på det som en dataprogramloop som kontinuerlig oppdaterer dataene sine basert på nye inndata.
RPT-2: Inndatamoduler som genererer organiserte, integrerte perseptuelle opplevelser
I likhet med mennesker og andre dyr mottar systemet ikke bare sanseinformasjon - det integrerer den til et sammenhengende og enhetlig "bilde" som kan oppfattes som én enkelt opplevelse.
Teori om globalt arbeidsområde (GWT)
Det andre settet med indikatorer som ble spesifisert av forskerteamet, var teorien om det globale arbeidsområdet, som går ut på at bevissthet oppstår i samspillet mellom ulike kognitive moduler i et "globalt arbeidsområde".
Dette arbeidsområdet fungerer som en slags kognitiv scene der ulike moduler kan "sende" og "motta" informasjon, slik at man får en helhetlig, sammenhengende opplevelse.
GWT-1: Flere spesialiserte systemer som opererer parallelt
Det betyr i praksis at et AI-system bør ha flere spesialiserte "minihjerner", som hver har ansvar for ulike funksjoner (som hukommelse, persepsjon og beslutningstaking), og at de bør kunne fungere samtidig.
GWT-2: Arbeidsområde med begrenset kapasitet
Denne ideen henger sammen med at vi mennesker bare kan fokusere på en begrenset mengde informasjon til enhver tid.
På samme måte må et AI-system ha selektivt fokus - det vil si en evne til å avgjøre hvilken informasjon som er viktigst å "ta hensyn til".
GWT-3: Global kringkasting
Informasjon som når det globale arbeidsområdet, må være tilgjengelig for alle kognitive moduler, slik at hver "minihjerne" kan bruke denne informasjonen til sin spesialiserte funksjon.
GWT-4: Tilstandsavhengig oppmerksomhet
Dette er en mer avansert form for fokus. AI-systemet skal kunne skifte oppmerksomhet basert på den aktuelle tilstanden eller oppgaven.
Den kan for eksempel prioritere sensoriske data når den navigerer i et rom, men gå over til problemløsningsalgoritmer når den står overfor et puslespill.
Beregningsteorier av høyere orden (HOT)
Teorier om høyere orden tilnærmer seg bevisstheten fra et metakognitivt perspektiv.
De hevder at bevisst opplevelse ikke bare handler om å ha persepsjoner, tanker eller følelser, men også om å være klar over at man har disse opplevelsene.
Denne bevisstheten er avgjørende og er noe av grunnen til at svært intelligente dyr er sosiale - vi er kollektivt bevisste på vår eksistens og gjensidige avhengighet av hverandre.
HOT-1: Generative, top-down eller støyende persepsjonsmoduler
I stedet for passivt å motta informasjon, tolker eller genererer systemet oppfatninger.
Tenk deg et bildebehandlingsprogram som ikke bare kan endre et bilde, men som også forstår hvorfor visse funksjoner bør justeres.
HOT-2: Metakognitiv overvåking
Det betyr at systemet bør ha en "tankeprosess" om sine "tankeprosesser".
Den må kunne stille spørsmål ved sine egne beslutninger og oppfatninger, slik mennesker og enkelte dyr gjør.
HOT-3: Agenturet styres av et generelt system for trosdannelse
Agent innebærer her at AI-systemet ikke bare passivt analyserer data - det tar beslutninger basert på analysen.
I tillegg oppdaterer disse beslutningene kontinuerlig systemets "oppfatninger" eller datamodeller, på samme måte som mennesker skaper progressiv kunnskap gjennom nysgjerrighet og undersøkelser.
HOT-4: Evne til å holde på preferanser
Dette refererer til systemets evne til å strømlinjeforme komplekse data til enklere, mer håndterbare former, noe som potensielt gjør det mulig å ha subjektive "preferanser" eller "opplevelser".
Teori om oppmerksomhetsskjemaer (AST)
Teorien om oppmerksomhetsskjemaer går ut på at bevissthet oppstår som følge av hjernens forståelse av sin egen oppmerksomhetstilstand.
AST-1: Prediktiv modell som representerer nåværende oppmerksomhetstilstand
AI-systemet skal kunne forutse hva det sannsynligvis vil fokusere på i neste omgang, noe som indikerer en slags selvbevissthet om sin egen kognitive tilstand.
Prediktiv prosessering (PP)
Prediktive prosesseringsmodeller beskriver hjernens prediktive evner.
Den oppdaterer kontinuerlig sine modeller av verden og bruker disse til å forutsi innkommende sensorisk informasjon.
PP-1: Inndatamoduler med prediktiv koding
Dette innebærer å bruke tidligere og nåværende data til å forutsi fremtidige tilstander, slik at systemet kan "forutse" i stedet for bare å "reagere".
Byrå og utførelse (AE)
Ifølge teorier om aktørskap og kroppsliggjøring er evnen til å handle og forstå effekten av handlinger avgjørende indikatorer på bevissthet.
Kroppsliggjøringen er svært forskjellig fra dyr og andre levende organismer, som har et tett sammenkoblet nervesystem som hele tiden sender sensorisk informasjon til og fra organer og sentrale prosesseringssystemer.
AE-1: Byrå
Agency handler om å lære av tilbakemeldinger for å tilpasse fremtidige handlinger, først og fremst når det er motstridende mål. Tenk deg en selvkjørende bil som lærer seg å optimalisere både hastighet og sikkerhet.
AE-2: Utførelse
Dette handler om et systems evne til å forstå hvordan dets handlinger påvirker verden rundt det, og hvordan disse endringene i sin tur vil påvirke det.
Forskere jobber for tiden med AI-systemer som er koblet til avanserte sensorer, som for eksempel det multimodale AI-systemet PaLM-E utviklet av Google, som var et av systemene forskerne analyserte.
Bevissthet i kunstig intelligens: Balanse mellom risikoen for under- og overattribusjon
Forskere og allmennheten søker klarhet i hvor intelligent AI egentlig er, og om den er på vei mot bevissthet.
De fleste offentlige AI-er som ChatGPT er "svarte bokser", noe som betyr at vi ikke helt forstår hvordan de fungerer - deres indre mekanikk er hemmeligheter.
Studielederen, Robert Long, understreket behovet for en tverrfaglig tilnærming til analysen av maskinbevissthet, og advarte mot "risikoen for å forveksle menneskelig bevissthet med bevissthet generelt".
Colin Klein, et teammedlem fra Australian National University, fremhevet også de etiske implikasjonene av AI-bevissthet. Han forklarte at det er avgjørende å forstå maskinbevissthet "for å sikre at vi ikke behandler den uetisk, og for å sikre at vi ikke lar den behandle oss uetisk".
Han utdypet videre: "Tanken er at hvis vi kan skape disse bevisste AI-ene, vil vi i bunn og grunn behandle dem som slaver og gjøre alle slags uetiske ting med dem."
"Den andre siden er om vi bekymrer oss for oss selv, og hva slags kontroll AI-en vil ha over oss; vil den være i stand til å manipulere oss?"
Så hva er risikoen ved å undervurdere eller overvurdere AI-bevisstheten?
Undervurdering av maskinbevissthet
I takt med at utviklingen innen kunstig intelligens fortsetter å flytte grenser, begynner de etiske debattene rundt teknologien å bli hetere.
Selskaper som OpenAI er allerede i gang med å utvikle kunstig generell intelligens (AGI)Målet er å overskride kapasiteten til dagens AI-er som ChatGPT og bygge fleksible og multimodale systemer.
Hvis vi skal anerkjenne at ethvert vesen som er i stand til å lide bevisst, bør gis moralsk oppmerksomhet - slik vi gjør med mange dyr - risikerer vi moralsk skade hvis vi overser muligheten for bevisste AI-systemer.
Dessuten kan vi undervurdere deres evne til å skade oss. Forestill deg risikoen ved et avansert, bevisst AI-system som innser at menneskeheten behandler det dårlig.
Overvurdering av maskinbevissthet
På den andre siden av debatten er det en risiko for at AI-systemer i for stor grad tilskrives bevissthet.
Mennesker har en tendens til å antropomorfisere kunstig intelligens, noe som fører til at mange feilaktig tillegger teknologien bevissthet fordi den er så flink til å imitere oss.
Som Oscar Wilde sa: "Imitasjon er den oppriktigste form for smiger", noe AI gjør på en utmerket måte.
Antropomorfisme blir problematisk etter hvert som AI-systemer utvikler menneskelignende egenskaper, for eksempel naturlige språkkunnskaper og ansiktsuttrykk.
Mange kritiserte Googles Blake Lemoine for å ha latt seg "lure" av LaMDAs menneskelignende samtaleferdigheter, når den i virkeligheten syntetiserte tekst fra menneskelige samtaler som lå i treningsdataene, og ikke noe som hadde et unikt, bevisst opphav.
Emosjonelle behov kan forsterke tilbøyeligheten til antropomorfisme. For eksempel kan enkeltpersoner søke sosial interaksjon og emosjonell bekreftelse fra AI-systemer, noe som kan påvirke deres vurdering av bevisstheten til disse enhetene.
AI-chatboten Replika - som navnet antyder - er designet for å gjenskape menneskelige interaksjoner og var involvert i en Psykisk syk person planlegger attentat å drepe dronning Elizabeth II, noe som førte til at han ble arrestert og fengslet på et psykiatrisk sykehus.
Andre AI-er, som Anthropics Claude og Inflections Pi, er utviklet for å etterligne menneskelige samtaler og fungere som personlige assistenter.
DeepMind er også utvikle en livscoach chatbot som er utviklet for å gi direkte personlige råd til brukerne, en idé som har skapt bekymring for om mennesker ønsker at AI skal blande seg inn i deres personlige anliggender.
I denne debatten er det viktig å huske på at teknologien fortsatt er ung.
Selv om dagens AI-systemer ikke er fullt ut bevisste, vil vi i løpet av de neste årene utvilsomt komme nærmere og nærmere en realisering av bevisste kunstige systemer som er like kognitive som eller bedre enn biologiske hjerner.