Er AI ved at opnå et vist niveau af bevidsthed? Hvordan ved vi, om og hvornår den gør det?
Store sprogmodeller (LLM'er) kan indgå i realistiske samtaler og generere tekst om forskellige emner, hvilket har sat gang i debatten om, hvornår de bliver sansende eller bevidste - som, selvom de ofte hænger sammen, er forskellige begreber.
Sentience handler primært om sansning og opmærksomhed, mens bevidsthed er mere kompleks og overordnet.
Så sent som i år har Microsoft efter at have testet OpenAI's GPT-4, angivet at modellen viste "gnister" af "generel intelligens" - et udtryk, der bruges til at definere fleksibel, tilpasningsdygtig AI med høje kognitive evner.
Endnu mere kontroversielt er det, at Blake Lemoine, en tidligere Google-ingeniør, hævdede, at Googles LaMDA AI havde nået et niveau af følsomhed. Lemoine sagde om LaMDA: "Google vil måske kalde det at dele ejendomsret. Jeg kalder det at dele en diskussion, som jeg havde med en af mine kolleger" - denne 'kollega' var AI-systemet, som udtrykte 'frygt' for at 'blive slukket'.
I et forsøg på at forankre debatten om AI-bevidsthed har et tværfagligt team af forskere inden for filosofi, computere og neurovidenskab foretaget en omfattende undersøgelse af nutidens mest avancerede AI-systemer.
Den undersøgelseUnder ledelse af Robert Long og hans kolleger på Center for AI Safety (CAIS), en nonprofit-organisation i San Francisco, undersøgte de flere teorier om menneskelig bevidsthed. De opstillede en liste med 14 "indikatoregenskaber", som en bevidst AI sandsynligvis ville udvise.
CAIS er den samme nonprofitorganisation, som fremsatte otte forslag til at skabe et overhoved Potentielle risici for AI i juni.
Efter at have analyseret deres resultater fandt teamet i sidste ende ud af, at de mest komplekse modeller kommer til kort i stort set alle de bevidsthedstests, de blev udsat for.
Forskerne evaluerede flere AI-modeller, herunder DeepMinds adaptive agent (ADa) og PaLM-Ebeskrevet som en kropsliggjort robot med multimodal LLM.
Ved at sammenligne disse AI'er med de 14 indikatorer fandt forskerne ingen væsentlige beviser for, at nogen AI-modeller besidder bevidsthed.
Mere om undersøgelsen
Denne detaljerede tværfaglige undersøgelse analyserede adskillige teorier om bevidsthed - som stadig er et dårligt beskrevet koncept i den videnskabelige litteratur - og anvendte dem på nuværende AI-tilstande.
Selv om undersøgelsen ikke kunne fastslå, at nuværende AI'er har bevidsthed, lægger den grunden til fremtidige analyser og giver i bund og grund en 'tjekliste', som forskere kan henvise til, når de analyserer deres AI'ers evner.
At forstå bevidsthed er også afgørende for at kunne informere den offentlige debat om AI.
Bevidsthed er dog ikke et binært begreb, og det er stadig usædvanligt svært at bestemme grænserne.
Nogle forskere mener, at bevidsthed vil udvikle sig spontant, når AI nærmer sig en "singularitet", som i bund og grund markerer det punkt, hvor AI-systemernes kompleksitet overgår den menneskelige kognition.
Her er de 14 indikatorer for bevidsthed, som forskerne vurderede:
Teori om tilbagevendende bearbejdning (RPT)
Teorien om tilbagevendende behandling fokuserer på de tidsmæssige aspekter af informationsbehandling.
I forbindelse med bevidsthed understreger det, hvordan information opretholdes og opdateres på en loop-lignende måde over tid.
Dette anses for at være afgørende for at opbygge en rigdom af bevidste oplevelser.
RPT-1: Inputmoduler ved hjælp af algoritmisk rekurrence
Algoritmisk gentagelse henviser her til den gentagne cykliske behandling af information.
Tænk på det som et computerprogram, der løbende opdaterer sine data baseret på nye input.
RPT-2: Inputmoduler, der genererer organiserede, integrerede perceptuelle oplevelser
Ligesom mennesker og andre dyr modtager systemet ikke bare sanseinformation - det integrerer den i et sammenhængende og forenet "billede", der kan opfattes som en enkelt oplevelse.
Teori om globalt arbejdsområde (GWT)
Det andet sæt indikatorer, som forskerholdet specificerede, var teorien om det globale arbejdsrum, som foreslår, at bevidsthed opstår i samspillet mellem forskellige kognitive moduler i et 'globalt arbejdsrum'.
Dette arbejdsområde fungerer som en slags kognitiv scene, hvor forskellige moduler kan "udsende" og "modtage" information, hvilket muliggør en samlet, sammenhængende oplevelse.
GWT-1: Flere specialiserede systemer, der arbejder parallelt
Det betyder i bund og grund, at et AI-system skal have flere specialiserede "minihjerner", som hver især er ansvarlige for forskellige funktioner (som hukommelse, opfattelse og beslutningstagning), og de skal kunne fungere samtidigt.
GWT-2: Arbejdsplads med begrænset kapacitet
Denne idé hænger sammen med, at mennesker kun kan fokusere på en begrænset mængde information på et givet tidspunkt.
På samme måde skal et AI-system have selektivt fokus - i bund og grund en evne til at afgøre, hvilke oplysninger der er de vigtigste at "være opmærksom på".
GWT-3: Global udsendelse
Information, der når det globale arbejdsområde, skal være tilgængelig for alle kognitive moduler, så hver "minihjerne" kan bruge den information til sin specialiserede funktion.
GWT-4: Tilstandsafhængig opmærksomhed
Dette er en mere avanceret form for fokus. AI-systemet bør være i stand til at flytte sin opmærksomhed baseret på den aktuelle tilstand eller opgave.
For eksempel kan den prioritere sensoriske data, når den navigerer i et rum, men skifte til problemløsningsalgoritmer, når den står over for et puslespil.
Computerbaserede teorier af højere orden (HOT)
Teorier om højere orden tilgår bevidstheden fra et metakognitivt perspektiv.
De hævder, at bevidst oplevelse ikke kun handler om at have opfattelser, tanker eller følelser, men også om at være bevidst om, at man har disse oplevelser.
Denne bevidsthed er afgørende og er en del af grunden til, at højt intelligente dyr er sociale - vi er kollektivt bevidste om vores eksistens og indbyrdes afhængighed.
HOT-1: Generative, top-down eller støjende perceptionsmoduler
I stedet for passivt at modtage information fortolker eller skaber systemet opfattelser.
Forestil dig en fotoredigeringssoftware, der ikke bare kan ændre et foto, men også forstå, hvorfor visse funktioner skal justeres.
HOT-2: Metakognitiv overvågning
Det betyder, at systemet skal have en "tankeproces" om sine "tankeprocesser".
Den skal kunne sætte spørgsmålstegn ved sine egne beslutninger og opfattelser, ligesom mennesker og nogle dyr gør.
HOT-3: Agenturet styres af et generelt trosdannelsessystem
Agency betyder her, at AI-systemet ikke bare passivt analyserer data - det træffer beslutninger på baggrund af sin analyse.
Desuden opdaterer disse beslutninger løbende systemets "overbevisninger" eller datamodeller, ligesom mennesker skaber progressiv viden gennem nysgerrighed og undersøgelser.
HOT-4: Evne til at fastholde præferencer
Dette refererer til systemets evne til at strømline komplekse data til enklere, mere håndterbare former, hvilket potentielt gør det muligt at have subjektive "præferencer" eller "oplevelser".
Teori om opmærksomhedsskemaer (AST)
Teorien om opmærksomhedsskemaer hævder, at bevidsthed opstår fra hjernens forståelse af sin egen opmærksomhedstilstand.
AST-1: Forudsigende model, der repræsenterer den aktuelle opmærksomhedstilstand
AI-systemet bør være i stand til at projicere, hvad det sandsynligvis vil fokusere på næste gang, hvilket indikerer en slags selvbevidsthed om dets egen kognitive tilstand.
Forudsigelig behandling (PP)
Modeller for prædiktiv behandling beskriver hjernens prædiktive evner.
Den opdaterer løbende sine modeller af verden og bruger dem til at forudsige indkommende sanseinformation.
PP-1: Inputmoduler med prædiktiv kodning
Det indebærer, at man bruger tidligere og nuværende data til at forudsige fremtidige tilstande, så systemet kan "forudse" i stedet for bare at "reagere".
Agentur og udførelse (AE)
Teorier om handlekraft og kropsliggørelse foreslår, at det at være i stand til at handle og forstå effekten af handlinger er afgørende indikatorer for bevidsthed.
Legemliggørelse er meget forskellig fra dyr og andre levende organismer, som har tæt forbundne nervesystemer, der konstant sender sanseinformation til og fra organer og centrale processorsystemer.
AE-1: Agentur
Agency refererer til at lære af feedback for at tilpasse fremtidige handlinger, primært når der er modstridende mål. Forestil dig en selvkørende bil, der lærer at optimere både hastighed og sikkerhed.
AE-2: Udførelsesform
Det handler om et systems evne til at forstå, hvordan dets handlinger påvirker verden omkring det, og hvordan disse ændringer igen vil påvirke det.
Forskere arbejder i øjeblikket på AI-systemer, der er forbundet med avancerede sensorer, som f.eks. det multimodale AI-system PaLM-E, der er udviklet af Google, og som var et af de systemer, forskerne analyserede.
Bevidsthed i AI: Afbalancering af risikoen for under- og overattribuering
Forskere og den brede offentlighed søger klarhed over, hvor intelligent AI egentlig er, og om den er på vej mod bevidsthed.
De fleste offentlige AI'er som ChatGPT er 'sorte bokse', hvilket betyder, at vi ikke helt forstår, hvordan de fungerer. - Deres indre mekanik er fortrolige hemmeligheder.
Undersøgelsens leder, Robert Long, understregede behovet for en tværfaglig tilgang til analyse af maskinbevidsthed og advarede mod "risikoen for at forveksle menneskelig bevidsthed med bevidsthed generelt."
Colin Klein, et teammedlem fra Australian National University, fremhævede også de etiske konsekvenser af AI-bevidsthed. Han forklarede, at det er afgørende at forstå maskinbevidsthed "for at sikre, at vi ikke behandler den uetisk, og for at sikre, at vi ikke tillader den at behandle os uetisk."
Han uddybede: "Tanken er, at hvis vi kan skabe disse bevidste AI'er, vil vi grundlæggende behandle dem som slaver og gøre alle mulige uetiske ting med dem."
"Den anden side er, om vi bekymrer os om os selv, og hvilken slags kontrol AI'en vil have over os; vil den være i stand til at manipulere os?"
Så hvad er risikoen ved at undervurdere eller overvurdere AI-bevidsthed?
Undervurdering af maskinbevidsthed
I takt med at fremskridtene inden for kunstig intelligens fortsætter med at flytte grænser, begynder de etiske debatter omkring teknologien at blive varmere.
Virksomheder som OpenAI er allerede i gang med at udvikle kunstig generel intelligens (AGI)Det er hensigten at overskride mulighederne i de nuværende AI'er som ChatGPT og opbygge fleksible og multimodale systemer.
Hvis vi anerkender, at enhver enhed, der er i stand til at lide bevidst, skal have moralsk opmærksomhed - som vi gør med mange dyr - risikerer vi moralsk skade, hvis vi overser muligheden for bevidste AI-systemer.
Desuden undervurderer vi måske deres evne til at skade os. Forestil dig risikoen ved et avanceret, bevidst AI-system, som indser, at menneskeheden behandler det dårligt.
Overvurdering af maskinens bevidsthed
På den anden side af debatten er der risiko for at tillægge AI-systemer for meget bevidsthed.
Mennesker har en tendens til at antropomorfisere AI, hvilket får mange til fejlagtigt at tillægge teknologien bevidsthed, fordi den er fremragende til at efterligne os.
Som Oscar Wilde sagde: "Imitation er den mest oprigtige form for smiger", og det gør AI usædvanligt godt.
Antropomorfisme bliver problematisk, når AI-systemer udvikler menneskelignende egenskaber, som f.eks. naturlige sprogfunktioner og ansigtsudtryk.
Mange kritiserede Googles Blake Lemoine for at lade sig "snyde" af LaMDA's menneskelignende samtalefærdigheder, når den i virkeligheden syntetiserede tekst fra menneskelige samtaler i sine træningsdata snarere end noget, der havde en unik bevidst oprindelse.
Følelsesmæssige behov kan forstærke tilbøjeligheden til antropomorfisme. For eksempel kan personer søge social interaktion og følelsesmæssig bekræftelse fra AI-systemer, hvilket skævvrider deres vurdering af disse enheders bevidsthed.
AI-chatbotten Replika er - som navnet antyder - designet til at efterligne menneskelige interaktioner og var indblandet i en Psykisk syg persons attentatplan at dræbe dronning Elizabeth II, hvilket førte til, at han blev anholdt og indlagt på en psykiatrisk afdeling.
Andre AI'er, som Anthropics Claude og Inflections Pi, er designet til nøje at efterligne menneskelig samtale for at fungere som personlige assistenter.
DeepMind er også Udvikling af en livscoach chatbot designet til at give direkte personlig rådgivning til brugerne, en idé, der har givet anledning til bekymring om, hvorvidt mennesker ønsker, at AI skal blande sig i deres personlige anliggender.
Midt i denne debat er det vigtigt at huske, at teknologien stadig er ung.
Selv om de nuværende AI-systemer ikke har en robust bevidsthed, vil de næste par år utvivlsomt bringe os tættere og tættere på at realisere bevidste kunstige systemer, der svarer til eller overgår de biologiske hjerners kognitive evner.