Visar dagens AI-system några tecken på medvetenhet?

4 september 2023

AI medvetande

Håller AI på att få en viss medvetenhetsnivå? Hur vet vi om och när den gör det?

Stora språkmodeller (LLM) kan delta i realistiska konversationer och generera text om olika ämnen, vilket har väckt debatt om när de blir kännande eller medvetna - begrepp som ofta hänger ihop, men som är skilda från varandra.

Sentience handlar främst om förnimmelser och medvetenhet, medan medvetande är mer komplext och övergripande. 

Bara tidigare i år, efter att ha testat OpenAI:s GPT-4, indikerade att modellen visade "gnistor" av "allmän intelligens" - en term som används för att definiera flexibel, anpassningsbar AI med höga kognitiva förmågor. 

Ännu mer kontroversiellt är att Blake Lemoine, en tidigare Google-ingenjör, hävdade att Googles AI LaMDA hade nått en nivå av medvetande. Lemoine sa om LaMDA: "Google kanske kallar detta att dela äganderätt. Jag kallar det att dela en diskussion som jag hade med en av mina medarbetare" - den "medarbetaren" var det AI-system som uttryckte "rädsla" för att "stängas av". 

I ett försök att ge en grund till debatten om AI-medvetande har ett tvärvetenskapligt team av forskare inom filosofi, databehandling och neurovetenskap genomfört en omfattande undersökning av dagens mest avancerade AI-system. 

Den studieUnder ledning av Robert Long och hans kollegor vid Center for AI Safety (CAIS), en ideell organisation baserad i San Francisco, granskades flera teorier om mänskligt medvetande. De upprättade en lista med 14 "indikatoregenskaper" som en medveten AI sannolikt skulle uppvisa. 

CAIS är samma ideella organisation som lade fram åtta förslag om att göra potentiella risker för AI i juni

Efter att ha analyserat sina resultat fann teamet slutligen att de mest komplexa modellerna inte klarar av praktiskt taget alla medvetandetest som de utsätts för.

Forskarna utvärderade flera AI-modeller, bland annat DeepMinds adaptiva agent (ADa) och PaLM-E, som beskrivs som en förkroppsligad robotbaserad multimodal LLM. 

Genom att jämföra dessa AI:er med de 14 indikatorerna fann forskarna inga substantiella bevis som tyder på att någon AI-modell skulle ha ett medvetande. 

Mer om studien 

I denna detaljerade tvärvetenskapliga studie analyserades ett flertal teorier om medvetande - som fortfarande är ett dåligt beskrivet begrepp i den vetenskapliga litteraturen - och tillämpades på aktuella AI-lägen. 

Även om studien inte kunde fastställa att nuvarande AI:er har ett medvetande, lägger den grunden för framtida analyser genom att i huvudsak tillhandahålla en "checklista" som forskare kan hänvisa till när de analyserar kapaciteten hos sina AI:er.

Att förstå medvetandet är också viktigt för att informera den offentliga debatten om AI.

Medvetandet är dock inte ett binärt begrepp, och det är fortfarande oerhört svårt att fastställa gränserna.

Vissa forskare tror att medvetandet kommer att utvecklas spontant när AI närmar sig en "singularitet", vilket i princip markerar den punkt där AI-systemens komplexitet överträffar den mänskliga kognitionen.

Här är de 14 indikatorer på medvetande som forskarna bedömde: 

Teorin om återkommande bearbetning (RPT)

Teorin om återkommande bearbetning fokuserar på de tidsmässiga aspekterna av informationsbearbetning. 

I samband med medvetande betonar det hur information upprätthålls och uppdateras på ett loopliknande sätt över tid. 

Detta anses vara avgörande för att skapa rikedom i de medvetna upplevelserna.

RPT-1: Ingångsmoduler som använder algoritmisk rekurrens

Algoritmisk upprepning avser här den repetitiva bearbetningen av information cykliskt. 

Tänk på det som en datorprogramloop som kontinuerligt uppdaterar sina data baserat på nya inmatningar. 

RPT-2: Ingångsmoduler som genererar organiserade, integrerade perceptuella upplevelser

Precis som människor och andra djur tar systemet inte bara emot sensorisk information - det integrerar den till en sammanhängande och enhetlig "bild" som kan uppfattas som en enda upplevelse.

Teorin om global arbetsyta (GWT)

Den andra uppsättningen indikatorer som forskargruppen specificerade var global workspace theory, som föreslår att medvetandet uppstår genom interaktioner mellan olika kognitiva moduler i en "global workspace". 

Denna arbetsyta fungerar som ett slags kognitivt stadium där olika moduler kan "sända" och "ta emot" information, vilket möjliggör en enhetlig och sammanhängande upplevelse.

GWT-1: Flera specialiserade system som arbetar parallellt

Det innebär i princip att ett AI-system ska ha flera specialiserade "minihjärnor", som var och en ansvarar för olika funktioner (som minne, perception och beslutsfattande), och de ska kunna arbeta samtidigt.

GWT-2: Arbetsutrymme med begränsad kapacitet

Den här idén handlar om att människor bara kan fokusera på en begränsad mängd information vid en given tidpunkt. 

På samma sätt skulle ett AI-system behöva ha selektivt fokus - i princip en förmåga att avgöra vilken information som är viktigast att "uppmärksamma".

GWT-3: Global sändning

Information som når den globala arbetsytan måste vara tillgänglig för alla kognitiva moduler så att varje "minihjärna" kan använda informationen för sin specialiserade funktion.

GWT-4: Tillståndsberoende uppmärksamhet

Detta är en mer avancerad form av fokus. AI-systemet ska kunna skifta sin uppmärksamhet baserat på aktuellt tillstånd eller uppgift. 

Den kan t.ex. prioritera sensoriska data när den navigerar i ett rum, men övergå till problemlösningsalgoritmer när den ställs inför ett pussel.

Beräkningsteorier av högre ordning (HOT)

Teorier av högre ordning närmar sig medvetandet ur ett metakognitivt perspektiv. 

De menar att medvetna upplevelser inte bara handlar om att ha uppfattningar, tankar eller känslor, utan också om att vara medveten om att man har dessa upplevelser. 

Denna medvetenhet är avgörande och är delvis anledningen till att högintelligenta djur är sociala - vi är kollektivt medvetna om vår existens och våra ömsesidiga beroenden. 

HOT-1: Generativa, top-down eller brusiga perceptionsmoduler

I stället för att passivt ta emot information tolkar eller skapar systemet uppfattningar. 

Tänk dig ett fotoredigeringsprogram som inte bara kan ändra ett foto utan också förstå varför vissa funktioner bör justeras.

HOT-2: Metakognitiv övervakning

Detta innebär att systemet bör ha en "tankeprocess" om sina "tankeprocesser". 

Den måste kunna ifrågasätta sina egna beslut och uppfattningar på samma sätt som människor och vissa djur gör. 

HOT-3: Byrån styrs av ett allmänt system för trosuppfattning

Agency innebär här att AI-systemet inte bara passivt analyserar data - det fattar beslut baserat på sin analys. 

Dessutom uppdaterar dessa beslut kontinuerligt systemets "övertygelser" eller datamodeller, ungefär som när människor skapar progressiv kunskap genom nyfikenhet och undersökningar. 

HOT-4: Förmåga att behålla preferenser

Detta avser systemets förmåga att strömlinjeforma komplexa data till enklare, mer hanterbara former, vilket potentiellt gör det möjligt att ha subjektiva "preferenser" eller "upplevelser".

Teorin om uppmärksamhetsschema (AST)

Enligt teorin om uppmärksamhetsscheman uppstår medvetandet genom hjärnans förståelse av sitt eget uppmärksamhetstillstånd. 

AST-1: Prediktiv modell som representerar aktuellt uppmärksamhetstillstånd

AI-systemet bör kunna förutse vad det sannolikt kommer att fokusera på härnäst, vilket tyder på en slags självmedvetenhet om dess eget kognitiva tillstånd.

Prediktiv bearbetning (PP)

Modeller för prediktiv bearbetning beskriver hjärnans prediktiva förmåga. 

Den uppdaterar kontinuerligt sina modeller av världen och använder dessa för att förutsäga inkommande sensorisk information.

PP-1: Ingångsmoduler som använder prediktiv kodning

Detta innebär att man använder tidigare och aktuella data för att förutsäga framtida tillstånd, vilket gör att systemet kan "förutse" snarare än att bara "reagera".

Byrå och förkroppsligande (AE)

Enligt teorierna om handlingsförmåga och förkroppsligande är förmågan att agera och förstå effekten av sina handlingar viktiga indikatorer på medvetenhet.

Förkroppsligande är mycket tydligt för djur och andra levande organismer, som har tätt sammankopplade nervsystem som ständigt matar sensorisk information till och från organ och centrala bearbetningssystem. 

AE-1: Byrån

Agency innebär att man lär sig av feedback för att anpassa framtida åtgärder, främst när det finns målkonflikter. Föreställ dig en självkörande bil som lär sig att optimera både hastighet och säkerhet.

AE-2: Förkroppsligande

Detta handlar om ett systems förmåga att förstå hur dess handlingar påverkar omvärlden och hur dessa förändringar i sin tur påverkar det. 

Forskare arbetar för närvarande med AI-system som är anslutna till avancerade sensorer, t.ex. det multimodala AI-systemet PaLM-E som utvecklats av Google och som var ett av de system som forskarna analyserade. 

PaLM-E integreras med en robotarm för att utföra långdistansuppgifter med flera beslutssteg. Källan är: Google.

Medvetenhet i AI: Balansering av riskerna med under- och överattribution

Forskare och allmänhet söker klarhet i hur intelligent AI egentligen är och om den är på väg mot ett medvetande. 

De flesta offentliga AI:er som ChatGPT är "svarta lådor", vilket innebär att vi inte helt förstår hur de fungerar - Deras inre mekanik är hemlig.

Studiens ledare, Robert Long, betonade behovet av ett tvärvetenskapligt angreppssätt för att analysera maskinmedvetande och varnade för "risken att missta mänskligt medvetande för medvetande i allmänhet".

Colin Klein, en teammedlem från Australian National University, lyfte också fram de etiska konsekvenserna av AI-medvetande. Han förklarade att det är avgörande att förstå maskinens medvetande "för att se till att vi inte behandlar den oetiskt, och för att se till att vi inte tillåter den att behandla oss oetiskt".

Han fortsatte: "Tanken är att om vi kan skapa dessa medvetna AI, kommer vi att behandla dem som slavar i princip och göra alla möjliga oetiska saker med dem."

"Den andra sidan är om vi oroar oss för oss själva och vilken typ av kontroll AI:n kommer att ha över oss; kommer den att kunna manipulera oss?"

Vilka är då riskerna med att underskatta eller överskatta AI:s medvetande?

Underskattning av maskinernas medvetande  

I takt med att utvecklingen inom AI fortsätter att flytta fram gränserna börjar de etiska debatterna kring tekniken att bli allt hetare. 

Företag som OpenAI håller redan på att utveckla artificiell allmän intelligens (AGI)med avsikt att överträffa kapaciteten hos nuvarande AI som ChatGPT och bygga flexibla och multimodala system.

Om vi ska erkänna att alla enheter som är kapabla till medvetet lidande bör ges moralisk hänsyn - vilket vi gör med många djur - riskerar vi moralisk skada om vi förbiser möjligheten till medvetna AI-system.

Dessutom kanske vi underskattar deras förmåga att skada oss. Föreställ dig riskerna med ett avancerat medvetet AI-system som inser att mänskligheten behandlar det illa. 

Överskattning av maskinernas medvetenhet

På den andra sidan av debatten finns risken att AI-system tillskrivs medvetande i alltför hög grad. 

Människor tenderar att förmänskliga AI, vilket leder till att många felaktigt tillskriver tekniken ett medvetande eftersom den är utmärkt på att imitera oss. 

Som Oscar Wilde sa: "Imitation är den mest uppriktiga formen av smicker", vilket AI gör exceptionellt bra. 

Antropomorfismen blir problematisk när AI-systemen utvecklar människoliknande egenskaper, till exempel förmåga att tala naturligt språk och ansiktsuttryck.

Många kritiserade Googles Blake Lemoine för att ha låtit sig "luras" av LaMDA:s människoliknande konversationsförmåga när den i själva verket syntetiserade text från mänskliga konversationer som fanns i dess träningsdata snarare än något unikt medvetet ursprung. 

Emotionella behov kan förstärka benägenheten för antropomorfism. Till exempel kan individer söka social interaktion och känslomässig validering från AI-system, vilket snedvrider deras bedömning av dessa enheters medvetande. 

AI-chatboten Replika - som namnet antyder - är utformad för att replikera mänskliga interaktioner och var inblandad i en psykiskt sjuk persons mordkomplott att döda drottning Elizabeth II, vilket ledde till att han greps och fängslades på en psykiatrisk institution. 

Andra AI:er, som Anthropics Claude och Inflections Pi, är utformade för att nära efterlikna mänskliga samtal och fungera som personliga assistenter. 

DeepMind är också utveckla en livscoach chatbot som är utformad för att ge direkt personlig rådgivning till användare, en idé som har lett till oro över om människor vill att AI ska lägga sig i deras personliga angelägenheter. 

Mitt i denna debatt är det viktigt att komma ihåg att tekniken fortfarande är ung.

Även om dagens AI-system inte har ett robust medvetande kommer vi under de närmaste åren utan tvekan att komma allt närmare medvetna artificiella system som är lika kognitiva som biologiska hjärnor, eller till och med bättre.

Bli en del av framtiden


PRENUMERERA IDAG

Tydlig, kortfattad och heltäckande. Få grepp om AI-utvecklingen med DagligaAI

Sam Jeans

Sam är en vetenskaps- och teknikskribent som har arbetat i olika AI-startups. När han inte skriver läser han medicinska tidskrifter eller gräver igenom lådor med vinylskivor.

×

GRATIS PDF EXKLUSIV
Ligg steget före med DailyAI

Registrera dig för vårt veckovisa nyhetsbrev och få exklusiv tillgång till DailyAI:s senaste e-bok: "Mastering AI Tools: Din 2024-guide till förbättrad produktivitet".

*Genom att prenumerera på vårt nyhetsbrev accepterar du vår Integritetspolicy och våra Villkor och anvisningar