ChatGPT scheint eine Panne zu haben und spuckt Antworten aus, die von skurril bis unsinnig reichen.
Die Aufregung begann am Dienstag, als verwirrte Nutzer im Subreddit r/ChatGPT Screenshots von den bizarren Possen der KI teilten.
Ein Nutzer brachte die Verwirrung mit den Worten auf den Punkt: "Nicht nur du, ChatGPT hat einen Schlaganfall".
Die Community wurde daraufhin mit Beschreibungen von ChatGPTs unberechenbarem Verhalten überschwemmt, in denen es hieß, es werde "verrückt", "entgleisen" und "umherschweifen".
Inmitten des zunehmenden Reddit-Geplauders teilte ein Nutzer namens z3ldafitzgerald seine unheimliche Erfahrung mit: "Ich hatte genau das gleiche Gefühl, als würde ich jemandem dabei zusehen, wie er langsam den Verstand verliert, entweder aufgrund einer Psychose oder Demenz. Es ist das erste Mal, dass mir etwas, das mit KI zu tun hat, wirklich eine Gänsehaut bereitet."
Entschuldigung, aber was zum Teufel...
vonu/arabdudefr inChatGPT
Je tiefer die Nutzer eintauchten, desto seltsamer wurden die Begegnungen.
Ein Benutzer, der von ChatGPTs Antwort auf eine einfache Frage über Computer verwirrt war, machte einen Screenshot von der poetischen, aber verwirrenden Antwort der KI: "Es tut dies als die gute Arbeit eines Netzes der Kunst für das Land, eine Maus der Wissenschaft, eine einfache Zeichnung von ein paar traurigen, und schließlich, das globale Haus der Kunst, nur in einem Job in der gesamten Rest."
Die Spekulationen wucherten.
Einige fragten sich, ob die "Temperatur" der KI (die die Zufälligkeit der Ausgaben steuert) zu hoch eingestellt war, was zu den unvorhersehbaren Ausgaben führte, während andere darüber nachdachten, ob die jüngsten Updates oder neuen Funktionen daran schuld waren.
Man muss sagen, dass die Auswirkungen größtenteils harmlos waren, aber es blieb das Gefühl zurück, dass es einen "Geist in der Maschine" gibt. - a 'Schattenselbst', die darauf warten, entfesselt zu werden.
Dr. Sasha Luccioni von Hugging Face wies auf die Schwachstellen des Vertrauens in geschlossene KI-Systeme hin.
Dr. Luccioni erklärte: "Blackbox-APIs können in der Produktion ausfallen, wenn eine der ihnen zugrunde liegenden Komponenten aktualisiert wird. Dies wird zu einem Problem, wenn man Tools auf diesen APIs aufbaut, und diese ebenfalls ausfallen. Hier hat Open-Source einen großen Vorteil, denn es ermöglicht Ihnen, das Problem zu lokalisieren und zu beheben!"
Der Kognitionswissenschaftler Dr. Gary Marcus wies darauf hin, dass Halluzinationen vielleicht nicht so amüsant wären, wenn diese Modelle an kritische Infrastrukturen oder Verteidigungssysteme angeschlossen wären.
"Der große ChatGPT-Meltdown wurde behoben. Hat OpenAI irgendetwas darüber gesagt, was ihn verursacht hat? Angesichts der zunehmenden Abhängigkeit der Gesellschaft von diesen Werkzeugen sollten wir hier auf Transparenz bestehen, vor allem, wenn diese Werkzeuge in der Verteidigung, Medizin, Bildung, Infrastruktur usw. eingesetzt werden", sagte er.
Der große ChatGPT-Meltdown wurde behoben. Hat OpenAI etwas über die Ursache gesagt?
Angesichts der zunehmenden Abhängigkeit der Gesellschaft von diesen Instrumenten sollten wir hier auf Transparenz bestehen, vor allem, wenn diese Instrumente in den Bereichen Verteidigung, Medizin, Bildung, Infrastruktur usw. eingesetzt werden.
- Gary Marcus (@GaryMarcus) 21. Februar 2024
Dies ist nicht das erste Mal, dass ChatGPT ein solches Verhalten an den Tag legt.
Im Jahr 2023 schien die Qualität von GPT-4 sich auf mysteriöse Weise verschieben und abschwächen. OpenAI räumte dies in gewisser Weise ein, vermittelte aber nicht den Eindruck, dass sie wüssten, warum dies der Fall war.
Später spekulierten einige sogar, ob ChatGPT litt unter saisonaler Depression (SAD)Ein Forscher fand heraus, dass ChatGPT sich anders verhält, wenn es "denkt", es sei Dezember, als wenn es "denkt", es sei Mai.
ChatGPT erinnert in regelmäßigen Abständen an die Unberechenbarkeit der KI. Wir sollten ihre "Objektivität" nicht als gegeben hinnehmen.
Ein Fall von Anthropomorphisierung?
Das unberechenbare Verhalten von ChatGPT zeigte auch unsere Tendenz, KI zu vermenschlichen, indem wir der Technologie menschenähnliche Eigenschaften, Gefühle oder Absichten zuschreiben.
Beschreibungen seiner verrückten Ergebnisse, wie ChatGPT "einen Schlaganfall erleiden", "verrückt werden" oder "den Verstand verlieren", lassen das Verhalten des Programms sofort mit unserem vergleichen.
Da ChatGPT Störungen und unvorhersehbares Verhalten in natürlicher Sprache "erfasst", werden wir dazu gebracht, eine menschliche Interpretation anzubieten.
Natürlich ist ChatGPT nicht empfindungsfähig und "leidet" nicht an irgendeiner Form von Krankheit. Es wird eine rationale Erklärung geben, wenn auch eine äußerst komplexe.