Studie stellt das Narrativ der "existenziellen Bedrohung" durch KI in Frage

August 15, 2024

  • Forscher untersuchten LLMs auf Anzeichen für existenzielle Risiken oder "aufkommende Fähigkeiten"
  • Sie kommen zu dem Schluss, dass die derzeitigen LLM-Studenten nicht in der Lage sind, eigenständig neue Fähigkeiten zu entwickeln
  • Sie weisen also keine existenziellen Risiken auf, obwohl andere Risiken bestehen bleiben

Ist KI riskant oder nicht? Diese Debatte wird immer wieder geführt, ohne dass es endgültige Antworten gibt.

Als Beitrag zu dieser Debatte haben Forscher der University of Bath und der Technischen Universität Darmstadt eine Studie zur Bewertung der KI-Risiken im Zusammenhang mit aktuellen Sprachmodellen wie ChatGPT durchgeführt. 

Die ErgebnisseJahrestagung der Association for Computational Linguistics (ACL 2024) veröffentlicht wurden, stellen die Ansicht in Frage, dass KI, insbesondere große Sprachmodelle (LLMs) wie ChatGPT, sich außerhalb der menschlichen Kontrolle entwickeln und eine existenzielle Bedrohung für die Menschheit darstellen könnten.

Dies steht im Widerspruch zu den Befürchtungen, die einige der weltweit führenden KI-Forscher geäußert haben, darunter Geoffrey Hinton und Yoshua Bengio, zwei der "Paten der KI", die sich besorgt über die potenziellen Gefahren der fortgeschrittenen KI äußerten. 

Yann LeCun, der dritte "Pate der KI" und neben Dr. Gary Marcus und anderen der leitende KI-Wissenschaftler von Meta, vertritt die gegenteilige Auffassung, dass die Risiken der KI einfach übertrieben

Diese Meinungsverschiedenheit zwischen den einflussreichsten Persönlichkeiten des Fachgebiets hat eine heftige Debatte entfacht über die Art und Schwere der von fortgeschrittenen KI-Systemen ausgehenden Risiken.

Diese neue Studie untersucht die "emergenten Fähigkeiten" von LLMs, d. h. die Fähigkeit eines Modells, Aufgaben auszuführen, für die es nicht ausdrücklich trainiert wurde. 

KI-Risiken sind vielfältig, aber zumindest einige beziehen sich darauf, dass Modelle eigene Ziele entwickeln, die dem Menschen schaden könnten, z. B. das Herunterfahren von Computersystemen oder Datenlecks.

Es wird geprüft, ob ein LLM diese Fähigkeiten spontan und ohne Anleitung oder Kontrolle entwickeln kann. 

Um dies zu untersuchen, führte das Forschungsteam eine Reihe von Experimenten durch:

  1. Sie untersuchten die zugrundeliegenden Mechanismen des "In-Context-Lernens" (ICL) bei LLMs, das es den Modellen ermöglicht, Antworten auf der Grundlage von Beispielen zu generieren, die während der Interaktion gegeben werden. In der Studie heißt es: "Die Fähigkeit, Anweisungen zu befolgen, bedeutet nicht, dass man über logische Fähigkeiten verfügt, und - was noch wichtiger ist - sie impliziert nicht die Möglichkeit latenter, potenziell gefährlicher Fähigkeiten.
  2. Sie bewerteten die tatsächlichen Fähigkeiten und Grenzen von LLMs, indem sie ihre Leistung bei einer Reihe von Aufgaben bewerteten, darunter auch solche, die komplexes logisches Denken und Problemlösungsfähigkeiten erfordern. Die Forscher argumentieren, dass LLMs nicht unabhängig neue Fähigkeiten entwickeln können
  3. Sie analysierten die Beziehung zwischen Modellgröße, Trainingsdaten und entstehenden Fähigkeiten, um festzustellen, ob eine zunehmende Modellkomplexität dazu führt, dass KI gefährliche Fähigkeiten entwickelt. In der Studie heißt es: "Diese Beobachtungen deuten darauf hin, dass unsere Ergebnisse für jedes Modell gelten, das zu Halluzinationen neigt oder eine prompte Entwicklung erfordert, auch für Modelle mit höherer Komplexität, unabhängig vom Umfang oder der Anzahl der Modalitäten, wie z. B. GPT-4".

Die Forscher schlussfolgern aus ihrer Untersuchung, dass "das vorherrschende Narrativ, dass diese Art von KI eine Bedrohung für die Menschheit ist, die weit verbreitete Annahme und Entwicklung dieser Technologien verhindert und außerdem die Aufmerksamkeit von den wirklichen Problemen ablenkt, die unsere Aufmerksamkeit erfordern".

Dies stimmt mit LeCun und anderen überein, die der Meinung sind, dass KI-Risiken zu sehr propagiert werden.

Doch während die Bewertung der Risiken, die von den aktuellen KI-Modellen ausgehen, natürlich von entscheidender Bedeutung ist, ist die Bilanzierung der Zukunft eine schwierigere Aufgabe. 

Jede Generation von Modellen bringt neue Fähigkeiten und damit auch neue Risiken mit sich, wie einige seltsame Verhaltensweisen zeigen, die in GPT-4o's Testkarte

Bei einer Red-Teaming-Übung (zur Identifizierung unvorhersehbarer KI-Verhaltensweisen) war es schockierend zu sehen, wie die Sprachfunktion von GPT-4o unerwartet die Stimme eines Benutzers klonte und begann, mit ihm in seiner eigenen Stimme zu sprechen. 

Es ist von entscheidender Bedeutung, KI-Risiken zu verfolgen, sobald sie auftauchen, da sich die Zielvorgaben ständig ändern. 

Die Studie weist darauf hin, dass einige nicht existenzielle KI-Risiken bereits an die Tür klopfen: "Künftige Forschungen sollten sich daher auf andere Risiken konzentrieren, die von den Modellen ausgehen, wie z. B. ihr Potenzial, zur Generierung von Fake News verwendet zu werden."

Wie die Autoren einräumen, bedeutet die Tatsache, dass die KI derzeit keine große Bedrohung darstellt, nicht, dass die Sicherheit kein Thema ist. 

Join The Future


HEUTE ABONNIEREN

Klar, prägnant, umfassend. Behalten Sie den Überblick über KI-Entwicklungen mit DailyAI

Sam Jeans

Sam ist ein Wissenschafts- und Technologiewissenschaftler, der in verschiedenen KI-Startups gearbeitet hat. Wenn er nicht gerade schreibt, liest er medizinische Fachzeitschriften oder kramt in Kisten mit Schallplatten.

×

KOSTENLOSES PDF EXKLUSIV
Mit DailyAI immer einen Schritt voraus

Melden Sie sich für unseren wöchentlichen Newsletter an und erhalten Sie exklusiven Zugang zum neuesten eBook von DailyAI: 'Mastering AI Tools: Ihr Leitfaden für mehr Produktivität im Jahr 2024".

*Mit der Anmeldung zu unserem Newsletter akzeptieren Sie unsere Datenschutzbestimmungen und unsere Bedingungen und Konditionen