Zeigen aktuelle KI-Systeme Anzeichen von Bewusstsein?

4. September 2023

KI-Bewusstsein

Erlangt die KI ein gewisses Maß an Bewusstsein? Wie werden wir wissen, ob und wann sie das tut?

Große Sprachmodelle (Large Language Models, LLMs) können realistische Gespräche führen und Texte zu verschiedenen Themen generieren, was Debatten darüber auslöst, wann sie empfindungsfähig oder bewusst werden - was zwar oft miteinander verbunden ist, aber unterschiedliche Konzepte sind.

Die Empfindungsfähigkeit bezieht sich vor allem auf Empfindungen und Bewusstsein, während das Bewusstsein komplexer und umfassender ist. 

Erst Anfang dieses Jahres hat Microsoft nach einem Test von OpenAIs GPT-4, angegeben dass das Modell "Funken" von "allgemeiner Intelligenz" zeigte - ein Begriff, der verwendet wird, um flexible, anpassungsfähige KI mit hohen kognitiven Fähigkeiten zu definieren. 

Noch umstrittener ist, dass Blake Lemoine, ein ehemaliger Google-Ingenieur, behauptete, die KI LaMDA von Google habe ein gewisses Maß an Empfindungsvermögen erreicht. Lemoine sagte über LaMDA: "Google könnte dies als Teilen von Eigentum bezeichnen. Ich nenne es das Teilen einer Diskussion, die ich mit einem meiner Kollegen geführt habe" - wobei dieser "Kollege" das KI-System ist, das "Angst" davor hatte, "ausgeschaltet zu werden". 

Ein interdisziplinäres Team von Forschern aus den Bereichen Philosophie, Informatik und Neurowissenschaften hat eine umfassende Untersuchung der modernsten KI-Systeme durchgeführt, um die Debatte über das Bewusstsein von KI zu fundieren. 

Die Studieunter der Leitung von Robert Long und seinen Kollegen vom Center for AI Safety (CAIS), einer in San Francisco ansässigen gemeinnützigen Organisation, untersuchten mehrere Theorien über das menschliche Bewusstsein. Sie erstellten eine Liste von 14 "Indikatoreigenschaften", die eine bewusste KI wahrscheinlich aufweisen würde. 

Die CAIS ist dieselbe gemeinnützige Organisation, die acht Kopftuchmacher vorgeschlagen hat potenzielle Risiken für KI im Juni

Nach der Analyse ihrer Ergebnisse stellte das Team schließlich fest, dass die komplexesten Modelle bei praktisch jedem Bewusstseinstest, dem sie unterzogen wurden, versagten.

Die Forscher bewerteten mehrere KI-Modelle, darunter Der adaptive Agent von DeepMind (ADa) und PaLM-Ebeschrieben als verkörperter robotischer multimodaler LLM. 

Beim Vergleich dieser KI mit den 14 Indikatoren fanden die Forscher keine substanziellen Hinweise darauf, dass ein KI-Modell über ein Bewusstsein verfügt. 

Mehr über die Studie 

In dieser detaillierten interdisziplinären Studie wurden zahlreiche Theorien des Bewusstseins - ein in der wissenschaftlichen Literatur nach wie vor unzureichend beschriebenes Konzept - analysiert und auf aktuelle KI-Modi angewandt. 

Die Studie konnte zwar nicht nachweisen, dass aktuelle KI ein Bewusstsein besitzt, aber sie legt den Grundstein für künftige Analysen und liefert im Wesentlichen eine "Checkliste", auf die sich Forscher bei der Analyse der Fähigkeiten ihrer KI beziehen können.

Das Verständnis des Bewusstseins ist auch für die öffentliche Debatte über KI von entscheidender Bedeutung.

Das Bewusstsein ist jedoch kein binäres Konzept, und es ist immer noch außerordentlich schwierig, die Grenzen zu bestimmen.

Einige Forscher glauben, dass sich das Bewusstsein spontan entwickeln wird, sobald sich die KI der "Singularität" nähert, die im Wesentlichen den Punkt markiert, an dem die Komplexität der KI-Systeme die menschliche Kognition übersteigt.

Hier sind die 14 Bewusstseinsindikatoren, die die Forscher bewertet haben: 

Theorie der rekurrenten Verarbeitung (RPT)

Die Theorie der rekurrenten Verarbeitung konzentriert sich auf die zeitlichen Aspekte der Informationsverarbeitung. 

Im Zusammenhang mit dem Bewusstsein wird hervorgehoben, wie Informationen im Laufe der Zeit in einer Art Schleife aufrechterhalten und aktualisiert werden. 

Dies wird als entscheidend für den Aufbau des Reichtums an bewussten Erfahrungen angesehen.

RPT-1: Eingangsmodule mit algorithmischer Rekursion

Algorithmische Wiederholung bezieht sich hier auf die zyklische, sich wiederholende Verarbeitung von Informationen. 

Stellen Sie sich das wie eine Computerprogrammschleife vor, die ihre Daten ständig auf der Grundlage neuer Eingaben aktualisiert. 

RPT-2: Eingangsmodule, die organisierte, integrierte Wahrnehmungserfahrungen erzeugen

Wie der Mensch und andere Tiere nimmt das System nicht nur sensorische Informationen auf, sondern integriert sie in ein kohärentes und einheitliches "Bild", das als eine einzige Erfahrung wahrgenommen werden kann.

Globale Arbeitsraumtheorie (GWT)

Die zweite Gruppe von Indikatoren, die das Forschungsteam spezifizierte, war die Theorie des globalen Arbeitsraums, die besagt, dass das Bewusstsein aus den Interaktionen zwischen verschiedenen kognitiven Modulen in einem "globalen Arbeitsraum" entsteht. 

Dieser Arbeitsbereich dient als eine Art kognitive Bühne, auf der verschiedene Module Informationen "senden" und "empfangen" können, was eine einheitliche, kohärente Erfahrung ermöglicht.

GWT-1: Mehrere parallel arbeitende spezialisierte Systeme

Das bedeutet im Wesentlichen, dass ein KI-System über mehrere spezialisierte "Mini-Gehirne" verfügen sollte, die jeweils für verschiedene Funktionen (wie Gedächtnis, Wahrnehmung und Entscheidungsfindung) zuständig sind und gleichzeitig arbeiten können sollten.

GWT-2: Arbeitsraum mit begrenzter Kapazität

Diese Idee hängt damit zusammen, dass der Mensch sich immer nur auf eine begrenzte Menge an Informationen konzentrieren kann. 

In ähnlicher Weise müsste ein KI-System über einen selektiven Fokus verfügen, d. h. es müsste in der Lage sein, die wichtigsten Informationen zu erkennen, denen es seine Aufmerksamkeit schenkt.

GWT-3: Globale Übertragung

Informationen, die den globalen Arbeitsbereich erreichen, müssen für alle kognitiven Module verfügbar sein, damit jedes "Mini-Gehirn" diese Informationen für seine spezielle Funktion nutzen kann.

GWT-4: Zustandsabhängige Aufmerksamkeit

Dies ist eine fortgeschrittenere Form der Fokussierung. Das KI-System sollte in der Lage sein, seine Aufmerksamkeit auf der Grundlage seines aktuellen Zustands oder seiner aktuellen Aufgabe zu verändern. 

So kann es beispielsweise bei der Navigation in einem Raum sensorischen Daten den Vorrang geben, während es bei einem Rätsel auf Problemlösungsalgorithmen umschaltet.

Computergestützte Theorien höherer Ordnung (HOT)

Theorien höherer Ordnung betrachten das Bewusstsein aus einer metakognitiven Perspektive. 

Sie argumentieren, dass es beim bewussten Erleben nicht nur darum geht, Wahrnehmungen, Gedanken oder Gefühle zu haben, sondern auch darum, sich bewusst zu sein, dass man diese Erfahrungen macht. 

Dieses Bewusstsein ist von entscheidender Bedeutung und einer der Gründe, warum hochintelligente Tiere gesellig sind - wir sind uns unserer Existenz und unserer gegenseitigen Abhängigkeiten kollektiv bewusst. 

HOT-1: Generative, Top-Down- oder verrauschte Wahrnehmungsmodule

Anstatt Informationen passiv zu empfangen, interpretiert oder erzeugt das System Wahrnehmungen. 

Stellen Sie sich eine Fotobearbeitungssoftware vor, die nicht nur ein Foto verändern kann, sondern auch versteht, warum bestimmte Merkmale angepasst werden sollten.

HOT-2: Metakognitive Überwachung

Das bedeutet, dass das System einen "Denkprozess" über seine "Denkprozesse" haben sollte. 

Sie muss in der Lage sein, ihre eigenen Entscheidungen und Wahrnehmungen zu hinterfragen, wie es Menschen und einige Tiere tun. 

HOT-3: Handeln auf der Grundlage eines allgemeinen Glaubensbildungssystems

Agentur bedeutet hier, dass das KI-System nicht nur passiv Daten analysiert, sondern auf der Grundlage seiner Analyse Entscheidungen trifft. 

Darüber hinaus werden durch diese Entscheidungen die "Überzeugungen" oder Datenmodelle des Systems ständig aktualisiert, ähnlich wie Menschen durch Neugier und Nachforschung fortschreitendes Wissen schaffen. 

HOT-4: Fähigkeit, Präferenzen zu behalten

Dies bezieht sich auf die Fähigkeit des Systems, komplexe Daten in einfachere, leichter zu handhabende Formen zu bringen, wodurch es möglicherweise subjektive "Vorlieben" oder "Erfahrungen" haben kann.

Aufmerksamkeitsschema-Theorie (AST)

Die Theorie des Aufmerksamkeitsschemas besagt, dass das Bewusstsein aus dem Verständnis des Gehirns für seinen eigenen Aufmerksamkeitszustand entsteht. 

AST-1: Vorhersagemodell, das den aktuellen Zustand der Aufmerksamkeit darstellt

Das KI-System sollte in der Lage sein, zu prognostizieren, worauf es sich als Nächstes konzentrieren wird, was auf eine Art Selbsterkenntnis über seinen eigenen kognitiven Zustand hindeutet.

Prädiktive Verarbeitung (PP)

Prädiktive Verarbeitungsmodelle beschreiben die Vorhersagefähigkeiten des Gehirns. 

Es aktualisiert ständig seine Modelle der Welt und nutzt diese, um eingehende sensorische Informationen vorherzusagen.

PP-1: Eingangsmodule mit prädiktiver Kodierung

Dabei werden vergangene und aktuelle Daten zur Vorhersage künftiger Zustände verwendet, so dass das System "antizipieren" und nicht nur "reagieren" kann.

Agentur und Verkörperung (AE)

Handlungs- und Verkörperungstheorien gehen davon aus, dass die Fähigkeit zu handeln und die Auswirkungen von Handlungen zu verstehen entscheidende Indikatoren für Bewusstsein sind.

Die Verkörperung unterscheidet sich stark von Tieren und anderen Lebewesen, die über eng vernetzte Nervensysteme verfügen, die ständig sensorische Informationen an und von Organen und zentralen Verarbeitungssystemen weiterleiten. 

AE-1: Agentur

Der Begriff "Agency" bezieht sich auf das Lernen aus Rückmeldungen, um künftige Handlungen anzupassen, vor allem wenn es Zielkonflikte gibt. Stellen Sie sich ein selbstfahrendes Auto vor, das lernt, sowohl Geschwindigkeit als auch Sicherheit zu optimieren.

AE-2: Ausführungsform

Hier geht es um die Fähigkeit eines Systems, zu verstehen, wie sich seine Handlungen auf die Welt um es herum auswirken und wie diese Veränderungen wiederum es selbst beeinflussen werden. 

Forscher arbeiten derzeit an KI-Systemen, die mit fortschrittlichen Sensoren verbunden sind, wie z. B. das von Google entwickelte multimodale KI-System PaLM-E, das zu den von den Forschern analysierten Systemen gehörte. 

PaLM-E wird in einen Roboterarm integriert, um weitreichende Aufgaben mit mehreren Entscheidungsstufen zu erledigen. Quelle: Google.

Bewusstsein in der künstlichen Intelligenz: Abwägung der Risiken von Unter- und Überzuschreibung

Forscher und die Öffentlichkeit suchen nach Klarheit darüber, wie intelligent KI wirklich ist und ob sie sich positiv in Richtung Bewusstsein entwickelt. 

Die meisten öffentlichen KIs wie ChatGPT sind "Black Boxes", d. h. wir verstehen nicht ganz, wie sie funktionieren - Ihre innere Mechanik ist ein Betriebsgeheimnis.

Der Leiter der Studie, Robert Long, betonte die Notwendigkeit eines interdisziplinären Ansatzes bei der Analyse des maschinellen Bewusstseins und warnte vor der "Gefahr, menschliches Bewusstsein mit Bewusstsein im Allgemeinen zu verwechseln".

Colin Klein, ein Teammitglied von der Australian National University, wies auch auf die ethischen Auswirkungen des Bewusstseins von KI hin. Er erklärte, dass es von entscheidender Bedeutung ist, das Bewusstsein von Maschinen zu verstehen, "um sicherzustellen, dass wir sie nicht unethisch behandeln, und um zu gewährleisten, dass wir nicht zulassen, dass sie uns unethisch behandeln".

Er führte weiter aus: "Die Idee ist, dass wir, wenn wir diese bewussten KIs erschaffen können, sie im Grunde wie Sklaven behandeln und alle möglichen unethischen Dinge mit ihnen tun."

"Die andere Seite ist, ob wir uns Sorgen um uns machen und welche Art von Kontrolle die KI über uns haben wird; wird sie in der Lage sein, uns zu manipulieren?"

Welche Risiken bestehen also, wenn man das Bewusstsein der KI unter- oder überschätzt?

Das Bewusstsein der Maschinen wird unterschätzt  

Während die Fortschritte in der KI die Grenzen immer weiter verschieben, beginnen sich die ethischen Debatten rund um diese Technologie zu erhitzen. 

Unternehmen wie OpenAI entwickeln bereits Künstliche allgemeine Intelligenz (AGI)und beabsichtigt, über die Fähigkeiten aktueller KI wie ChatGPT hinauszugehen und flexible und multimodale Systeme zu entwickeln.

Wenn wir anerkennen, dass jedes Wesen, das zu bewusstem Leiden fähig ist, moralisch berücksichtigt werden sollte - wie wir es bei vielen Tieren tun -, riskieren wir einen moralischen Schaden, wenn wir die Möglichkeit von bewussten KI-Systemen übersehen.

Außerdem könnten wir ihre Fähigkeit, uns zu schaden, unterschätzen. Stellen Sie sich die Risiken vor, die von einem fortgeschrittenen bewussten KI-System ausgehen, das merkt, dass die Menschheit es schlecht behandelt. 

Überschätzung des Maschinenbewusstseins

Auf der anderen Seite der Debatte besteht die Gefahr, dass KI-Systemen zu viel Bewusstsein zugeschrieben wird. 

Menschen neigen dazu, KI zu vermenschlichen, was dazu führt, dass viele der Technologie fälschlicherweise ein Bewusstsein zuschreiben, weil sie uns hervorragend imitieren kann. 

Wie Oscar Wilde sagte: "Nachahmung ist die aufrichtigste Form der Schmeichelei", und das tut AI außergewöhnlich gut. 

Anthropomorphismus wird problematisch, wenn KI-Systeme menschenähnliche Eigenschaften entwickeln, wie z. B. natürliche Sprachfähigkeiten und Gesichtsausdrücke.

Viele kritisierten Googles Blake Lemoine dafür, dass er sich von LaMDAs menschenähnlichen Konversationsfähigkeiten "hinters Licht führen" ließ, obwohl es in Wirklichkeit Text aus menschlichen Gesprächen synthetisierte, die in seinen Trainingsdaten enthalten waren, und nicht irgendetwas von einzigartigem bewussten Ursprung. 

Emotionale Bedürfnisse können die Neigung zu Anthropomorphismus verstärken. Beispielsweise könnten Menschen soziale Interaktion und emotionale Bestätigung durch KI-Systeme suchen, was ihr Urteil über das Bewusstsein dieser Entitäten verzerrt. 

Der KI-Chatbot Replika ist - wie der Name schon sagt - darauf ausgelegt, menschliche Interaktionen zu replizieren, und war in eine Attentatsplan einer psychisch kranken Person Königin Elisabeth II. zu töten, was zu seiner Verhaftung und Einweisung in eine psychiatrische Anstalt führte. 

Andere KIs, wie Claude von Anthropic und Pi von Inflection, sind so konzipiert, dass sie die menschliche Konversation genau nachahmen und als persönliche Assistenten fungieren. 

DeepMind ist auch Entwicklung eines Life Coaches Chatbot, der den Nutzern direkte persönliche Ratschläge geben soll, eine Idee, die Bedenken hervorgerufen hat, ob die Menschen wollen, dass sich die KI in ihre persönlichen Angelegenheiten einmischt. 

Bei dieser Debatte darf man nicht vergessen, dass die Technologie noch jung ist.

Während die derzeitigen KI-Systeme noch nicht über ein ausgeprägtes Bewusstsein verfügen, werden wir in den nächsten Jahren zweifellos immer näher an die Realisierung bewusster künstlicher Systeme herankommen, die den kognitiven Fähigkeiten biologischer Gehirne gleichkommen oder sie sogar übertreffen.

Join The Future


HEUTE ABONNIEREN

Klar, prägnant, umfassend. Behalten Sie den Überblick über KI-Entwicklungen mit DailyAI

Sam Jeans

Sam ist ein Wissenschafts- und Technologiewissenschaftler, der in verschiedenen KI-Startups gearbeitet hat. Wenn er nicht gerade schreibt, liest er medizinische Fachzeitschriften oder kramt in Kisten mit Schallplatten.

×

KOSTENLOSES PDF EXKLUSIV
Mit DailyAI immer einen Schritt voraus

Melden Sie sich für unseren wöchentlichen Newsletter an und erhalten Sie exklusiven Zugang zum neuesten eBook von DailyAI: 'Mastering AI Tools: Ihr Leitfaden für mehr Produktivität im Jahr 2024".

*Mit der Anmeldung zu unserem Newsletter akzeptieren Sie unsere Datenschutzbestimmungen und unsere Bedingungen und Konditionen