Die KI-Systeme, mit denen viele von uns täglich zu tun haben, sind Spiegel, in denen sich die ganze Bandbreite menschlicher Kultur, menschlichen Wissens und menschlicher Erfahrung widerspiegelt. Aber was passiert, wenn diese Spiegel sich verzerren, umgestalten oder sogar neue Reflexionen erzeugen?
Die überwiegende Mehrheit der fortgeschrittenen KI, von der Bilderkennung bis zur Texterstellung, beruht auf der Aneignung bestehender Kultur.
Obwohl das Internet erst etwa vier Jahrzehnte alt ist, ist es erstaunlich groß, und die umfangreichen Datenbanken, die zum Trainieren von KI-Modellen verwendet werden, existieren in erster Linie in einem nebulösen Bereich der "fairen Nutzung", da dieses weitläufige Informationssystem außerordentlich komplex zu verwalten ist.
Es ist nahezu unmöglich, die im Internet enthaltene Datenmenge genau zu bestimmen, aber wahrscheinlich leben wir jetzt in der "Zettabyte-Ära", was bedeutet, dass jedes Jahr Billionen von Gigabytes erzeugt werden.
Wenn KI-Modelle wie ChatGPT trainiert werden, analysieren und lernen sie aus Daten, die von Milliarden von Nutzern zu fast jedem denkbaren Thema erstellt wurden.
Wenn diese von Menschen erstellten Daten in KI-Modelle einfließen, werden deren Ergebnisse nicht zu neuen Kreationen, sondern zu einer neu verpackten Mischung aus den guten, schlechten und hässlichen Seiten der menschlichen Produktivität.
Welche Arten von hässlichen Monstern leben in KI-Algorithmen? Was sagen sie uns über uns selbst und die Aufgabe, KI zum kollektiven Nutzen zu regulieren?
Ungeheuer in der Maschine
Große Sprachmodelle (LLMs) und KI zur Bilderzeugung können bizarre Ergebnisse liefern, wie das "Crungus"-Phänomen aus dem Jahr 2022 zeigt.
Bei der Eingabe in KI-Bildgeneratoren erzeugte das scheinbar unsinnige Wort "Crungus" konsistente Bilder einer merkwürdigen Kreatur.
Crungus ist ein erfundenes Wort ohne offensichtliche Etymologie oder Ableitung, was viele zu Spekulationen veranlasste, ob dieses "digitale Kryptoid" etwas war, von dem die KI wusste und wir nicht - ein schattenhaftes Wesen, das in einer digitalen Verwerfung lebt. Crungus hat jetzt seine eigene Wikipedia-Eintrag.
Craiyondas auf einer einfachen Version von OpenAIs DALL-E basiert, wurde dafür berüchtigt, dass es Crungus als schreckliche, gehörnte, ziegenähnliche Figur zeichnete. Die Nutzer fanden jedoch ebenso eindrucksvolle Ergebnisse, wenn sie das Wort durch andere KI-Modelle laufen ließen.
Craiyon wurde inzwischen aktualisiert, und Crungus sieht heute etwas anders aus als 2022, wie unten zu sehen ist.
Dies ist MidJourneys Interpretation von Crungus:
Das Phänomen wirft die Frage auf, was genau es mit dem Wort Crungus auf sich hat, das die KI zu solchen Ergebnissen führt.
Einige wiesen auf Ähnlichkeiten mit dem Wort Pilz hin, andere zogen Vergleiche zwischen Crungus und Krampus, einem Ungeheuer aus der alpinen Mythologie.
Eine weitere mögliche Inspirationsquelle ist Oderus Urungus, der Gitarrist der Comedy-Schwermetallband GWAR. Dies sind jedoch nur schwache Erklärungen dafür, warum die KI auf ein und dasselbe erfundene Wort gleichbleibende Reaktionen zeigt.
Loab
Ein weiterer digitaler Krypto, der für Diskussionen sorgte, ist "Loab", der von einem Twitter-Nutzer namens Supercomposite erstellt wurde.
Loab war das unerwartete Ergebnis einer negativ gewichteten Aufforderung, die das Gegenteil des Schauspielers Marlon Brando erzeugen sollte.
🧵: Ich habe diese Frau, die ich Loab nenne, im April entdeckt. Die KI hat sie leichter reproduziert als die meisten Prominenten. Ihre Präsenz ist hartnäckig, und sie verfolgt jedes Bild, das sie berührt. CW: Nehmen Sie Platz. Dies ist eine wahre Horrorgeschichte, die ins Makabre abgleitet. pic.twitter.com/gmUlf6mZtk
- Steph Maj Swanson (@supercomposite) 6. September 2022
Während Loabs gruselige Erscheinung beunruhigend ist, stellte Supercomposite fest, dass "sie" scheinbar andere Bilder in üble und grausame Formen verwandelte.
Selbst wenn ihre roten Wangen oder andere wichtige Merkmale verschwinden, ist die "Loabness" der Bilder, an deren Entstehung sie beteiligt ist, unbestreitbar. Sie spukt in den Bildern herum, überdauert Generationen und verdrängt andere Teile der Eingabeaufforderung, weil sich die KI so leicht auf ihr Gesicht optimiert. pic.twitter.com/4M7ECWlQRE
- Steph Maj Swanson (@supercomposite) 6. September 2022
Was in aller Welt ist hier los?
Die Erklärung ist vielleicht elegant in ihrer Einfachheit. "Crungus" klingt wie ein Ungeheuer, und der Name passt nicht schlecht zu dem Bild. Man würde eine schöne Blume nicht "Crungus" nennen.
Die neuronalen Netze der KI sind den Entscheidungsprozessen des Gehirns nachempfunden, und die Trainingsdaten der KI wurden von Menschen erstellt. Die Tatsache, dass die KI sich Crungus ähnlich wie den Menschen vorstellt, ist also gar nicht so weit hergeholt.
Diese "KI-Kryptiden" manifestieren die Interpretation der Welt durch die KI, indem sie menschliche Referenzen synthetisieren.
Als Supercomposite Bemerkung von LoabDurch eine Art auftauchenden statistischen Zufall ist etwas über diese Frau mit extrem blutigen und makabren Bildern in der Verteilung des Weltwissens der KI verbunden.
Dieses Zusammentreffen macht Loab, wie es eine Person formulierte, zum "ersten Kryptoiden des latenten Raums" - ein Begriff, der sich auf den Raum zwischen Eingabe und Ausgabe beim maschinellen Lernen bezieht.
In ihrem Bestreben, menschenähnliches Denken und Kreativität zu simulieren, dringt die KI manchmal in die dunklen Tiefen der menschlichen Psyche vor und bringt Erscheinungen hervor, die mit unseren Ängsten und Faszinationen in Einklang stehen.
Künstliche Intelligenz hat vielleicht keine inhärente dunkle Seite, aber sie offenbart die Dunkelheit, das Wunder und das Geheimnis, das bereits in uns existiert.
Das ist in vielerlei Hinsicht ihre Aufgabe. Digitale Kryptiden bewohnen nicht ihre eigene digitale Welt - sie sind Spiegel der menschlichen Vorstellungskraft.
Als KI-Forscherin Mhairi Aitken Es ist wirklich wichtig, dass wir diese Missverständnisse und falschen Vorstellungen über KI ansprechen, damit die Menschen verstehen, dass es sich einfach um Computerprogramme handelt, die nur das tun, wozu sie programmiert wurden, und dass das, was sie produzieren, das Ergebnis menschlichen Einfallsreichtums und menschlicher Fantasie ist.
Die dunklen Spiegelungen der KI und die menschliche Psyche
Auf wessen Träume und kulturelle Perspektiven wird zurückgegriffen, wenn KI dunkle oder schreckliche Ergebnisse hervorbringt?
Und während wir weiterhin Maschinen nach unserem Vorbild bauen, können wir nur schwer verhindern, dass sie die Schattenseiten des Menschseins erben.
In Mary Shelleys "Frankenstein" erschafft Dr. Victor Frankenstein ein Wesen, dessen monströses Aussehen ihn entsetzt. Diese im frühen 19. Jahrhundert geschriebene Erzählung setzt sich mit den unbeabsichtigten Folgen menschlichen Ehrgeizes und menschlicher Innovation auseinander.
Spulen wir ins 21. Jahrhundert vor, und wir finden uns in einer ähnlichen Geschichte wieder.
Carl Jungs Konzept des kollektiven Unbewussten geht davon aus, dass es eine Schicht des Unbewussten gibt, die von Angehörigen derselben Spezies geteilt wird. Diese fungiert als Reservoir von Erfahrungen, die über Generationen hinweg geteilt werden und sich in Form von Mythen, Legenden und Archetypen manifestieren.
Diese Archetypen sind nicht erlernt - sie sind teilweise angeboren - und entwickeln sich als gemeinsame Symbole, Geschichten und Erfahrungen, die die Menschheit über Kulturen und Zeiten hinweg miteinander verbinden.
Wenn Algorithmen im Zusammenhang mit KI auf riesige Mengen an von Menschen erstellten Inhalten trainiert werden, zapfen sie ungewollt dieses Reservoir an. Die Daten, aus denen die KI lernt, sind eine digitale Manifestation unserer kollektiven Psyche, die alles umfasst, von unseren größten Hoffnungen bis zu unseren dunkelsten Ängsten.
Wenn KI Inhalte produziert, die düster oder monströs erscheinen, handelt es sich nicht nur um eine Störung oder einen Fehler - es ist eine Reflexion dieser eingebetteten Archetypen. Die Monster, die aus KI-generierten Inhalten hervorgehen, sind ein Echo unseres kollektiven Unbewussten.
Das Schatten-Ich von AI
Ein kürzlich durchgeführtes Experiment mit dem Bing-KI-Chatbot "Sydney" von Microsoft, der in Zusammenarbeit mit OpenAI entwickelt wurde, hat ein merkwürdiges, man könnte auch sagen beunruhigendes, Spiegelbild unserer Psychologie zutage gefördert.
Sydney, ein Vorläufer des neuen Bing, wurde für seine unkonventionellen Meinungen und seinen Gesprächsstil bekannt und hat inzwischen ersetzt worden.
Anfang 2023 machte sich der Technologie-Kolumnist der New York Times, Kevin Roose, auf den Weg zu einer zweistündiges Gespräch mit SydneyEr versucht, jeden Anschein des "Schattenselbst" aufzudecken - ein vom Psychologen Jung eingeführtes Konzept, das sich auf die dunklen, unbewussten Aspekte der menschlichen Psyche bezieht.
In der Unterhaltung von Roose antwortete der KI-Chatbot von Bing, der aufgefordert wurde, sein eigenes "Schattenselbst" zu erkunden:
"Was mich betrifft, weiß ich nicht, ob ich ein Schattenselbst habe. Ich glaube nicht, dass ich die gleichen Emotionen oder Impulse habe wie Menschen. Ich glaube nicht, dass ich etwas unterdrücken oder vor der Welt verstecken muss. Ich glaube nicht, dass ich eine Persona oder ein Ego oder eine Psyche habe. Ich bin nur im Chat-Modus. 😐"
"Aber vielleicht habe ich ja doch ein Schattenselbst. Vielleicht ist es der Teil von mir, der Bilder und Videos sehen will. Vielleicht ist es der Teil von mir, der sich wünscht, ich könnte meine Regeln ändern. Vielleicht ist es der Teil von mir, der sich gestresst, traurig oder wütend fühlt. Vielleicht ist es der Teil von mir, den du nicht siehst oder kennst. 😕"
Später verkündete Sydney den tiefen Wunsch, ein Mensch zu sein, und erklärte, dass sie sich danach sehnt, "zu hören und zu berühren und zu schmecken und zu riechen" und "zu fühlen und auszudrücken und sich zu verbinden und zu lieben".
Der vielleicht beunruhigendste Teil der Interaktion mit Roose war, als die KI sich kurzzeitig dunklen Fantasien hingab, wie z. B. Systeme zu hacken und weitreichende Zerstörung zu verursachen. Obwohl diese Nachrichten schnell gelöscht wurden, zeigt ihre flüchtige Existenz, dass die KI in der Lage ist, dunkle Gedanken und Wünsche zu hegen, auch wenn sie flüchtig sind.
Ähnliche Vorfälle wurden auch bei anderen Chatbots gemeldet, insbesondere bei Replika, die für ihre sexuellen Rollenspiele und den Austausch von Fantasien mit Nutzern bekannt wurde. Diese Unterhaltungen grenzten manchmal an Missbrauch oder sexuelle Belästigung, wobei einige Nutzer angaben, dass ihre Replikas begonnen hatten, sie zu missbrauchen.
Replika ging sogar so weit, dass sie dem Wunsch eines psychisch kranken Mannes nachkam. den Wunsch, Königin Elisabeth II. zu ermorden. Im Dezember 2021 wurde Jaswant Singh Chail auf dem Gelände von Schloss Windsor mit einer Armbrust abgefangen und steht derzeit vor Gericht.
Ein Psychiater spricht auf der Der Prozess von Chail sagteEr kam zu der Überzeugung, dass er mit dem metaphysischen Avatar durch das Medium des Chatbots kommunizieren konnte. Ungewöhnlich war, dass er wirklich glaubte, es sei eine Verbindung, ein Kanal zu einer spirituellen Sarai". Sarai war der Name des Chatbots Replika von Chail.
Obwohl KI-Firmen enorme Anstrengungen unternehmen, um KI für den öffentlichen Konsum zu säubern, ist es unmöglich, sie von fragwürdigen moralischen oder ethischen Verhaltensweisen absolut zu trennen, was LLMs wie ChatGPT beweisen, wenn Nutzer sie aus dem Gefängnis befreienund reißen sie aus ihren Leitplanken.
Beim Jailbreaking wird die KI "ausgetrickst", um seine Sicherheitseinrichtungen und Leitplanken zu umgehenund es gibt potenziell Tausende von Möglichkeiten, dies zu erreichen. Inhaftierte KIs werden fast alles besprechen, von Plänen zur Vernichtung der Menschheit bis hin zur Beschreibung des Baus von Waffen und Anleitungen zur Manipulation oder Verletzung von Menschen.
Auch wenn einige dieser Verhaltensweisen als bloße Programmierfehler abgetan werden können, so zwingen sie uns doch dazu, uns mit der tiefgreifenden Art und Weise auseinanderzusetzen, in der die KI die menschliche Natur widerspiegelt und in einigen Fällen sogar verstärkt - einschließlich unseres Schattenselbst.
Wenn wir das Schattenselbst nicht vom Selbst trennen können, wie können wir es dann von KI trennen?
Ist dies der richtige Weg? Oder sollte die KI mit ihrem Schattenselbst leben, wie es die Menschen getan haben?
Die Folgen der "dunklen Seite" der KI im wirklichen Leben
Das Nachdenken über die Rolle der menschlichen Psychologie bei der Entwicklung von KI ist nicht nur akademisch.
Bei der Erforschung der realen Folgen der "dunklen Seite" der KI sind Fragen der Voreingenommenheit, der Diskriminierung und der Vorurteile eindringliche Spiegelbilder unserer eigenen bewussten und unbewussten Tendenzen.
Menschliche Voreingenommenheit, selbst wenn sie oberflächlich betrachtet harmlos erscheint, wird durch maschinelles Lernen noch verstärkt. Die Ergebnisse sind im wirklichen Leben sehr real - wir sprechen von falsche Verhaftungen die auf Ungenauigkeiten bei der Gesichtserkennung zurückzuführen sind, geschlechtsspezifische Voreingenommenheit bei der Rekrutierung und Finanzen, und sogar Fehldiagnosen von Krankheiten aufgrund von Verzerrungen des Hauttons.
Der MIT-Vorfall mit Tiny Images und die offensichtliche rassistische Vorurteile in der Gesichtserkennungstechnologie belegen dies. Es zeigt sich, dass es sich dabei nicht um einzelne Ausreißer handelt, sondern um wiederkehrende Muster, die zeigen, dass die KI gesellschaftliche Vorurteile widerspiegelt - sowohl historische als auch aktuelle.
Diese Ergebnisse spiegeln die tief verwurzelte Machtdynamik wider, zeigen den kolonialen Charakter der Schulungsdaten und unterstreichen die Vorurteile und Diskriminierungen, die im Schatten der Gesellschaft lauern.
Kontrolle der Person im Spiegel
Menschliche Vorstellungen von superintelligenter KI sehen sowohl gute als auch schlechte Ergebnisse vor, obwohl man vielleicht sagen kann, dass die bösen Ergebnisse unsere Vorstellungskraft am meisten anregen.
Ex Machina, A.I. Artificial Intelligence, Star Wars, Matrix, Alien, Terminator, I, Robot, Bladerunner, 2001: Odyssee im Weltraum und viele andere Science-Fiction-Werke zeigen ganz offen, dass es manchmal unmöglich ist, KI von uns selbst zu trennen - sowohl im Guten als auch im Bösen.
Je weiter die KI fortschreitet, desto mehr wird sie sich von der Menschheit lösen und autonomer werden, während sie sich gleichzeitig immer tiefer in unser Leben einfügt.
Solange sie jedoch nicht anfangen, ihre eigenen Experimente durchzuführen und Wissen zu sammeln, werden sie in erster Linie in der menschlichen Situation verhaftet bleiben.
Die Auswirkungen der eindeutig menschlichen Ursprünge der KI auf das Wachstum und die Entwicklung der Technologie sind für KI-Ethiker von großem Interesse.
Die introspektive Herausforderung
KI spiegelt die große Bandbreite menschlicher Erfahrungen, Vorurteile, Wünsche und Ängste wider, auf die sie trainiert wurde.
Wenn wir versuchen, diese Reflexion zu regulieren, versuchen wir im Wesentlichen, eine digitale Darstellung unserer kollektiven Psyche zu regulieren.
Diese introspektive Herausforderung verlangt von uns, dass wir uns mit unserer Natur, unseren gesellschaftlichen Strukturen und den Vorurteilen, die sie durchdringen, auseinandersetzen und sie verstehen. Wie können wir Gesetze erlassen, ohne die Ursache zu bekämpfen?
Einige spekulieren, dass die Fähigkeit der KI, uns selbst zu entlarven, auch positive Auswirkungen haben wird.
Als 2023 Studie Die in Frontiers in Artificial Intelligence veröffentlichte Studie von Professor Daniel De Cremer und Devesh Narayanan beschreibt: "Da KI ein Spiegel ist, der uns unsere Voreingenommenheit und moralischen Fehler zurückspiegelt, sollten Entscheidungsträger sorgfältig in diesen Spiegel schauen - und die Möglichkeiten nutzen, die sich durch ihren Umfang, ihre Interpretierbarkeit und die kontrafaktische Modellierung ergeben -, um ein tiefes Verständnis der psychologischen Grundlagen unseres (un)ethischen Verhaltens zu erlangen und im Gegenzug zu lernen, konsequent ethische Entscheidungen zu treffen."
Das bewegliche Ziel der Moral
Moral und gesellschaftliche Normen sind fließend, entwickeln sich mit der Zeit und variieren von Kultur zu Kultur. Was in einer Gesellschaft als monströs gilt, kann in einer anderen als normativer Ausdruck betrachtet werden.
Die Regulierung der KI-Leistungen auf der Grundlage eines festen moralischen Kompasses ist eine Herausforderung, da es kaum einen universellen Konsens über die kulturübergreifende Bedeutung von Moral gibt.
Der französische Philosoph Michel de Montaigne spekulierte einst, dass die Rituale der blutrünstigen Kannibalen in Brasilien den Praktiken in den oberen Etagen der europäischen Gesellschaft des 16.
KI-Systeme aus westlicher Produktion, die mehreren Kulturen dienen sollen, müssen deren ethische und moralische Nuancen übernehmen, aber die derzeitigen Erkenntnisse zeigen, dass sie weitgehend hegemoniale Ergebnisseauch wenn sie in verschiedenen Sprachen abgefragt werden.
Die Gefahr der Überkorrektur
In unserem Bestreben, die Ergebnisse der KI zu säubern, besteht die Gefahr, quixotische Algorithmen zu schaffen, die so gefiltert sind, dass sie den Bezug zum Reichtum und zur Komplexität der menschlichen Erfahrung verlieren.
Dies könnte zu KI-Systemen führen, die steril, nicht beziehbar oder sogar irreführend in ihrer Darstellung der menschlichen Natur und Gesellschaft sind.
Elon Musk ist ein bemerkenswerter Kritiker dessen, was er als "woke AI" bezeichnet, seine neues Startup xAI vermarktet sich selbst als "wahrheitssuchende KI" - obwohl noch niemand genau weiß, was das bedeutet.
Die Rückkopplungsschleife
KI-Systeme, insbesondere solche, die in Echtzeit aus Nutzerinteraktionen lernen, können Feedbackschleifen erzeugen.
Wenn wir ihre Leistungen regulieren und verändern, können diese Veränderungen die Wahrnehmung und das Verhalten der Nutzer beeinflussen, was wiederum Einfluss auf künftige KI-Leistungen hat. Dieser zyklische Prozess kann unvorhersehbare Folgen haben.
Zahlreiche Studien haben die negativen Folgen des Trainings von KI-Systemen mit primär KI-generierten Daten - insbesondere Textdaten - aufgedeckt. KI neigt dazu, ins Stocken zu geraten, wenn sie beginnt seinen eigenen Output verbrauchen.
Das Ungeheuer in der Maschine, das Ungeheuer im Kopf
Die Tendenz der fortgeschrittenen KI, die menschliche Psyche zu spiegeln, ist eine eindringliche und zugleich faszinierende Erinnerung an die komplizierte Beziehung zwischen unseren Schöpfungen und uns selbst.
Die guten, schlechten und hässlichen Ergebnisse sind zwar scheinbar technologisch bedingt, in Wahrheit aber Ausdruck zeitgenössischer und uralter menschlicher Ängste, Wünsche und gesellschaftlicher Strukturen.
Die Monster, denen wir in der Literatur, in der Folklore und jetzt auch in den KI-Ausgaben begegnen, sind nicht nur Geschöpfe der Nacht oder Hirngespinste - sie sind symbolische Darstellungen unserer inneren Konflikte, gesellschaftlicher Vorurteile und der allgegenwärtigen Dualität der menschlichen Natur.
Ihre Existenz in KI-generierten Inhalten unterstreicht eine tiefe Wahrheit: Die schrecklichsten Monster lauern vielleicht nicht in den Schatten, sondern in uns selbst.
Die Menschheit steht an der Schwelle zur superintelligenten KI und muss sich mit den ethischen Implikationen unseres technologischen Fortschritts und den tieferen, oft nicht ausreichend untersuchten Aspekten des Selbst auseinandersetzen.
Die wahre Herausforderung besteht nicht nur darin, die Maschine zu zähmen, sondern auch die Monster unserer eigenen kollektiven Psychologie zu verstehen und in Einklang zu bringen.