2.778 Forscher äußern sich zu KI-Risiken - was lernen wir aus ihren Antworten?

4. Januar 2024

AI-Risiken

Eine groß angelegte Umfrage unter 2 700 KI-Forschern ergab, dass die Meinungen über die Risiken der KI geteilt sind.

Die von AI Impacts durchgeführte UmfrageDie größte ihrer Art, an der Fachleute beteiligt waren, die auf sechs führenden KI-Konferenzen Forschungsergebnisse veröffentlicht haben.

Die Teilnehmer wurden gebeten, sich zu den künftigen Meilensteinen der KI und ihren gesellschaftlichen Auswirkungen zu äußern. 

Bemerkenswert ist, dass fast 58% dieser Forscher glauben, dass es eine 5% Chance gibt, dass die Menschheit ausstirbt oder ähnlich schlimme Folgen aufgrund von KI-Fortschritten auftreten.

Andere Ergebnisse deuten darauf hin, dass KI mit einer Wahrscheinlichkeit von 50% oder mehr in der Lage sein wird, innerhalb des nächsten Jahrzehnts Aufgaben zu bewältigen, die von der Komposition von Chartmusik bis zur Entwicklung einer kompletten Website für die Zahlungsabwicklung reichen. 

Komplexere Aufgaben, wie das Verlegen von elektrischen Leitungen oder das Lösen von mathematischen Problemen, werden voraussichtlich länger dauern, obwohl DeepMind demonstrierte kürzlich die überragende Leistung von AI bei der Bewältigung von Kappensatz- und Behälterpackungsproblemen. 

Die Forscher schätzen außerdem, dass die KI bis 2047 mit einer Wahrscheinlichkeit von 50% die menschliche Leistung bei allen Aufgaben übertreffen und bis 2116 alle menschlichen Arbeitsplätze automatisieren wird. Dies setzt voraus, dass die Wissenschaft "ungestört bleibt". 

Die Ergebnisse sind sicherlich gemischt, aber man kann mit Fug und Recht behaupten, dass die KI-Risiken noch nicht die kritische Masse erreicht haben. 

Katja Grace vom Machine Intelligence Research Institute in Kalifornien in der Studie angegebenEs ist ein wichtiges Signal, dass die meisten KI-Forscher es nicht für sehr unwahrscheinlich halten, dass fortgeschrittene KI die Menschheit vernichtet.

Hier finden Sie eine Liste der wichtigsten Statistiken und Ergebnisse:

  • Wahrscheinlichkeit, dass KI bis 2028 Meilensteine erreicht: Es besteht eine 50% Chance, dass KI-Systeme in der Lage sein werden, eine Website für die Zahlungsabwicklung zu erstellen, einen Song zu kreieren, der von dem eines bekannten Musikers nicht zu unterscheiden ist, und ein großes Sprachmodell (LLM) herunterzuladen und fein abzustimmen.
  • KI-Leistungsprognosen auf menschlicher Ebene: Die Studie geht davon aus, dass bis 2027 eine Chance von 10% und bis 2047 eine Chance von 50% besteht, dass Maschinen ohne fremde Hilfe den Menschen bei allen Aufgaben übertreffen. Diese Prognose für 2047 ist 13 Jahre früher als die für 2022.

  • Automatisierung von menschlichen Tätigkeiten: Es besteht eine Chance von 10%, dass alle menschlichen Berufe bis 2037 vollständig automatisiert werden können, und eine Chance von 50% bis 2116, wenn man die Vorhersage von 2164 aus dem Jahr 2022 zugrunde legt.
  • Ausblick auf den langfristigen Wert von AI68,3% der Befragten halten gute Ergebnisse der "übermenschlichen KI" für wahrscheinlicher als schlechte, aber 48% dieser Optimisten sehen immer noch eine Chance von mindestens 5% für extrem schlechte Ergebnisse wie das Aussterben der Menschheit. Währenddessen sehen 59% der Pessimisten eine Wahrscheinlichkeit von 5% oder mehr für extrem gute Ergebnisse.
  • Bedenken über KI-gesteuerte Szenarien: Mehr als 70% der Forscher äußern sich besorgt über Themen wie Fälschungen, Manipulation der öffentlichen Meinung und technische Waffen. Tiefe Fälschungen lösten mit 86% der besorgten Forscher den größten Alarm aus. 
  • Wahrscheinlichkeitsschätzungen für AI-Risiken: Zwischen 37,8% und 51,4% der Befragten glauben, dass es mindestens eine 10% Chance gibt, dass fortgeschrittene KI zu so schwerwiegenden Folgen wie dem Aussterben der Menschheit führen könnte.

  • Wahrscheinlichkeitsschätzungen für HLMI (High-Level Machine Intelligence): In der Gesamtprognose für 2023 wird eine Chance von 50% vorhergesagt, HLMI bis 2047 zu erreichen, was eine deutliche Verschiebung gegenüber der Vorhersage für 2060 im Jahr 2022 bedeutet.
  • Wahrscheinlichkeit der vollständigen Automatisierung der Arbeit (FAOL): Die Vorhersage für 2023 schätzt eine 50% Chance auf FAOL bis 2116, 48 Jahre früher als eine ähnliche Vorhersage aus dem Jahr 2022.
  • KI-Sicherheitsforschung: Etwa 70% der Umfrageteilnehmer sind der Meinung, dass der KI-Sicherheitsforschung mehr Priorität eingeräumt werden sollte, als dies derzeit der Fall ist.

Unmittelbare Risiken verdrängen die langfristigen

Abgesehen von den existenziellen Risiken zeigt die Umfrage, dass eine beträchtliche Mehrheit der Forscher unmittelbare Bedenken gegenüber der KI hat.

Über 70% äußern sich sehr besorgt über KI-bedingte Probleme wie tiefgreifende Fälschungen, Manipulation der öffentlichen Meinung, künstliche Waffen, autoritäre Kontrolle und eskalierende wirtschaftliche Ungleichheit. 

Émile Torres von der Case Western Reserve University in Ohio warnt ausdrücklich vor der Rolle der KI bei der Verbreitung von Desinformationen über kritische Themen und deren Auswirkungen auf die demokratische Staatsführung: "Wir verfügen bereits jetzt über eine Technologie, die die Demokratie [der USA] ernsthaft untergraben könnte." 

Politische Kampagnen von US-amerikanischen und kanadischen Politikern haben bereits KI eingesetzt, um Bilder zu erzeugen, und AI-Robo-Calls werden derzeit eingesetzt, um Wähler zu gewinnen. 

Eine weitere wichtige Vorfall waren die jüngsten Wahlen in der Slowakei, wobei jereits 48 Stunden vor den Wahlen tauchte in den sozialen Medien ein gefälschter Audioclip auf, in dem angeblich wichtige politische Persönlichkeiten über Taktiken des Stimmenkaufs diskutieren.

Sie löste eine weit verbreitete Verwirrung in einer kritischen Zeit der Stille vor den Wahlen aus. Der Zeitpunkt der Veröffentlichung machte ein schnelles Gegensteuern nahezu unmöglich. 

In jüngster Zeit zielten KI-generierte Verleumdungskampagnen auf die heiß umkämpfte Wahlen in Bangladeschmit Inhalten, die darauf abzielen, die gegnerische Partei zu diskreditieren, indem sie deren Unterstützung für die Bombardierung des Gazastreifens erklären, ein heikles Thema in einem Land mit muslimischer Mehrheit. 

Zeitpläne für AI-Risiken sind umstritten

Vergleiche zwischen den kurz- und langfristigen Auswirkungen der KI waren Anlass für heftige Diskussionen, als das Center for AI Safety (CAIS) veröffentlichte eine dramatische Erklärung im Jahr 2023, in dem KI-Risiken mit Pandemien und Atomkriegen verglichen werden. 

Die Medien berichten über die schlimmsten Prognosen für die Entwicklung der KI, von mörderischen Robotern bis hin zu außer Kontrolle geratenen Drohnen auf dem Schlachtfeld. 

Bislang ist es die Art und Weise, wie Menschen KI nutzen, die Risiken birgt - ein Fall von "KI tötet keine Menschen, Menschen tun es" - und die Sorge um existenzielle Risiken wird manchmal so gesehen, dass sie das aktuelle Geschehen in den Hintergrund drängt.

Vor allem Deep Fakes haben nachweislich spürbare Auswirkungen auf die menschliche Gesellschaft.

AI Pentagon-Explosion
Dieses gefälschte, von einer KI generierte Bild einer Explosion im Pentagon hat vorübergehend Auswirkungen auf die Finanzmärkte Anfang 2023. Quelle: X.

Es gibt noch eine weitere Ebene, die von Yann LeCun, einer prominenten Persönlichkeit auf dem Gebiet der KI, angeführt wird, der vorschlägt, dass größere Technologieunternehmen diese Risiken zu übertreiben um Regulierungsmaßnahmen zu ihren Gunsten zu beeinflussen. 

Die Befürchtungen, die oft von großen Technologieunternehmen geäußert werden, könnten ein strategischer Trick sein, um strenge Vorschriften zu fördern, die kleinere Unternehmen und Open-Source-Initiativen benachteiligen könnten. 

Dies deckt eine subtilere Gefahr auf - die potenzielle Monopolisierung der KI durch einige wenige Großunternehmen, die Innovation und Vielfalt in der KI ersticken könnte.

Das überlässt es den großen Akteuren in diesem Bereich, wie Google und OpenAI, die Branche in ihre eigene Richtung zu drängen, solange sie die Anforderungen der Compliance erfüllen können.

Existenzielle Risiken - was sagen die Beweise?

Der Dialog über Risiken schwankt oft zwischen zwei Extremen: Skepsis und Alarmismus. Welche konkreten Beweise gibt es also dafür, dass KI uns töten oder den Planeten anderweitig zerstören könnte?

Die Idee der Bewaffnung mit KI ist vielleicht das am ehesten vorstellbare Beispiel. In diesem Fall könnten KI-Systeme Menschen mit begrenzter Kontrolle töten, oder Bedrohungsakteure könnten die Technologie nutzen, um katastrophal wirksame Waffen zu entwickeln. 

Drohnen sind zweifellos bereits in der Lage, Ziele mit minimalem menschlichem Einsatz zu zerstören, wie es in der Israel-Palästina- und Russland-Ukraine-Konflikte bereits.

Das unbemannte Flugzeug XQ-58A Valkyrie wurde 2023 vollständig KI-automatisiert. Quelle: Wikimedia Commons.

Eine subtilere Ursache für das existenzielle Risiko der KI ist die Entkräftung. Dabei geht es nicht nur um den Verlust von Arbeitsplätzen durch Roboter, sondern auch um den Verlust wesentlicher menschlicher Fähigkeiten und Kreativität. Eine gängige Analogie ist der Film WALL-E, in dem klecksähnliche Menschen Roboter haben, die ihre Befehle auf Kosten der Erde selbst ausführen.

Es gibt einige Beweise dass LLM-Studiengänge wie ChatGPT das kritische Denken der Studenten untergraben, obwohl es noch viel zu früh ist, um das mit Sicherheit zu sagen.

Bildungseinrichtungen sind sehr daran interessiert, die Vorteile der KI zu nutzen, ohne die von Menschen geleitete akademische Welt auszulöschen, und mehrere hochkarätige Einrichtungen haben die Nutzung der Technologie durch Studenten bedingt befürwortet.

WALL-E AI
WALL-E ist ein populäres Beispiel für die "Entkräftung" von KI oder Technologie.

Ein weiteres, recht gut dokumentiertes Risiko ist die Entwicklung von KI, die neue Ziele entwickelt, wie die folgenden Beispiele zeigen Forschung von der Universität Cambridge und DeepMinddie unbeabsichtigte und potenziell schädliche Folgen für die menschliche Gesellschaft haben könnten.

Hochintelligente KIs könnten ihre eigenen unvorhersehbaren Ziele festlegen und möglicherweise sogar aus ihrer Architektur ausbrechen, um andere Systeme zu "infizieren". 

Letztlich ist das Potenzial der KI für ein dramatisches und gewaltsames Aussterben höchst spekulativ, und es gibt nur wenige Beispiele oder Beweise dafür, dass dies bald geschehen könnte. Es gibt jedoch immer mehr experimentelle Belege für aufkommende Ziele und andere potenzielle Methoden, mit denen autonome KIs Schaden anrichten können.

Im Moment haben wir eine Menge unmittelbarer Risiken zu bewältigen, und wir dürfen nicht vergessen, dass sich diese Herausforderungen parallel zum Klimawandel, zum Verlust von Lebensräumen, zu Bevölkerungskrisen und anderen makroökonomischen Risiken entwickeln werden.

Neben der Begeisterung über die potenziellen Errungenschaften der KI gibt es auch eine spürbare Besorgnis über ihre unmittelbaren Risiken und langfristigen Auswirkungen. 

Diese jüngste Umfrage erinnert daran, dass der Diskurs über KI nicht auf Kosten der unmittelbaren Herausforderungen und ethischen Dilemmata, die diese transformative Technologie mit sich bringt, auf weit entfernte existenzielle Risiken verlagert werden sollte. 

Im Zuge des Fortschritts der künstlichen Intelligenz ist es von entscheidender Bedeutung, in dieser Debatte ein Gleichgewicht zu finden, um die Entwicklung der künstlichen Intelligenz so zu lenken, dass sie für die Menschheit nützlich und sicher ist.

Join The Future


HEUTE ABONNIEREN

Klar, prägnant, umfassend. Behalten Sie den Überblick über KI-Entwicklungen mit DailyAI

Sam Jeans

Sam ist ein Wissenschafts- und Technologiewissenschaftler, der in verschiedenen KI-Startups gearbeitet hat. Wenn er nicht gerade schreibt, liest er medizinische Fachzeitschriften oder kramt in Kisten mit Schallplatten.

×

KOSTENLOSES PDF EXKLUSIV
Mit DailyAI immer einen Schritt voraus

Melden Sie sich für unseren wöchentlichen Newsletter an und erhalten Sie exklusiven Zugang zum neuesten eBook von DailyAI: 'Mastering AI Tools: Ihr Leitfaden für mehr Produktivität im Jahr 2024".

*Mit der Anmeldung zu unserem Newsletter akzeptieren Sie unsere Datenschutzbestimmungen und unsere Bedingungen und Konditionen