Drei Debatten in der KI-Branche: Intelligenz, Fortschritt und Sicherheit

März 22, 2024

Das berühmte Sprichwort: "Je mehr wir wissen, desto mehr wissen wir nicht", gilt auch für die KI.

Je mehr wir über KI erfahren, desto weniger scheinen wir mit Sicherheit zu wissen.

Experten und Branchenführer sind sich oft uneins darüber, wo KI heute steht und wohin sie sich entwickelt. Es gelingt ihnen nicht, sich auf scheinbar elementare Konzepte wie maschinelle Intelligenz, Bewusstsein und Sicherheit zu einigen.

Werden Maschinen eines Tages den Intellekt ihrer menschlichen Schöpfer übertreffen? Beschleunigt sich der Fortschritt der KI in Richtung einer technologischen Singularität, oder stehen wir an der Schwelle zu einem KI-Winter?

Und vielleicht am wichtigsten: Wie können wir sicherstellen, dass die Entwicklung von KI sicher und nützlich bleibt, wenn sich die Experten nicht einig sind, was die Zukunft bringt?

KI ist in einen Nebel der Ungewissheit getaucht. Das Beste, was wir tun können, ist, Perspektiven zu erforschen und zu fundierten, aber fließenden Ansichten für eine Branche zu gelangen, die sich ständig im Wandel befindet.

Debatte eins: KI-Intelligenz

Mit jeder neuen Generation von generativen KI-Modellen wird die Debatte über maschinelle Intelligenz neu entfacht.

Elon Musk heizte kürzlich die Debatte über die Intelligenz von KI an, als er sagte: "KI wird nächstes Jahr wahrscheinlich intelligenter sein als jeder einzelne Mensch. Im Jahr 2029 ist die KI wahrscheinlich schlauer als alle Menschen zusammen".

Der Chef-KI-Wissenschaftler von Meta und renommierte KI-Forscher Yann LeCun widersprach Musk sofort: "Nein. Wenn das der Fall wäre, hätten wir KI-Systeme, die sich das Autofahren in 20 Übungsstunden selbst beibringen könnten, wie jeder 17-Jährige. Aber wir haben immer noch kein völlig autonomes, zuverlässiges selbstfahrendes Auto, obwohl wir (Sie) Millionen von Stunden an *markierten* Trainingsdaten haben."

Dieses Gespräch ist nur ein Mikrokosmos einer zweideutigen Lücke in der Meinung von KI-Experten und Führungskräften.

Es ist ein Gespräch, das führt zu einer nicht enden wollenden Spirale der Interpretation mit wenig Konsenswie die stark gegensätzlichen Ansichten einflussreicher Technologen im letzten Jahr gezeigt haben (Informationen von Verbessern Sie die Nachrichten):

  • Geoffrey Hinton: Die "digitale Intelligenz" könnte uns innerhalb von "5 bis 20 Jahren" überholen.
  • Yann LeCun: Es ist wahrscheinlicher, dass die Gesellschaft Jahre vor der menschlichen KI eine KI auf "Katzen-" oder "Hunde-Niveau" bekommt.
  • Demis Hassabis: Wir könnten "so etwas wie AGI oder AGI-ähnliches im nächsten Jahrzehnt erreichen".
  • Gary Marcus: "[W]ir werden schließlich AGI erreichen... und das möglicherweise noch vor Ende dieses Jahrhunderts."
  • Geoffrey Hinton: "Aktuelle KI wie GPT-4 "stellt den Menschen in den Schatten", was das Allgemeinwissen angeht, und könnte dies bald auch beim logischen Denken tun.
  • Geoffrey Hinton: Die KI ist "jetzt schon sehr nah dran" und wird "in Zukunft viel intelligenter sein als wir".
  • Elon Musk: "Wir werden zum ersten Mal etwas haben, das intelligenter ist als der intelligenteste Mensch."
  • Elon Musk: "Es würde mich überraschen, wenn wir bis [2029] keine AGI haben".
  • Sam Altman: "[W]ir könnten im nächsten Jahrzehnt zu echtem AGI kommen."
  • Yoshua Bengio: "Übermenschliche KI" wird "in ein paar Jahren bis zu ein paar Jahrzehnten" erreicht werden.
  • Dario Amodei: KI auf "menschlichem Niveau" könnte in "zwei oder drei Jahren" auftreten.
  • Sam Altman: KI könnte in den meisten Bereichen innerhalb eines Jahrzehnts das "Expertenniveau" übertreffen.
  • Gary Marcus: "Ich glaube nicht, dass wir so nah an Maschinen dran sind, die intelligenter sind als wir."

In der Debatte über maschinelle Intelligenz gibt es keine Partei, die eindeutig Recht oder Unrecht hat. Es kommt auf die subjektive Interpretation von Intelligenz an und darauf, wie KI-Systeme an dieser Definition gemessen werden.

Pessimisten verweisen auf die potenziellen Risiken und unbeabsichtigten Folgen der KI und betonen die Notwendigkeit von Vorsicht. Sie argumentieren, dass KI-Systeme in dem Maße, wie sie autonomer und leistungsfähiger werden, Ziele und Verhaltensweisen entwickeln könnten, die nicht mit den menschlichen Werten übereinstimmen und zu katastrophalen Ergebnissen führen.

Die Optimisten hingegen konzentrieren sich auf das transformative Potenzial der KI und stellen sich eine Zukunft vor, in der Maschinen mit Menschen zusammenarbeiten, um komplexe Probleme zu lösen und Innovationen voranzutreiben. Sie mögen die Risiken herunterspielen und argumentieren, dass die Bedenken über superintelligente KI weitgehend hypothetisch sind und dass die Vorteile die Risiken überwiegen.

Der Kern des Problems liegt in der Schwierigkeit, Intelligenz zu definieren und zu quantifizieren, insbesondere wenn man so unterschiedliche Wesen wie Menschen und Maschinen vergleicht.

Zum Beispiel kann auch ein Fliege verfügt über fortschrittliche neuronale Schaltkreise und kann sich unseren Versuchen, sie zu schlagen oder zu fangen, erfolgreich entziehen, so dass sie uns in diesem engen Bereich überlistet. Diese Art von Vergleichen ist potenziell grenzenlos.

Suchen Sie sich Ihre Beispiele für Intelligenz aus, und jeder kann richtig oder falsch liegen.

Zweite Debatte: Beschleunigt oder verlangsamt sich die KI?

Wird sich der Fortschritt der KI beschleunigen oder stagnieren und sich verlangsamen?

Einige behaupten, wir befänden uns mitten in einer KI-Revolution, in der sich die Durchbrüche rasend schnell vollziehen. Andere behaupten, dass der Fortschritt ein Plateau erreicht hat und das Feld vor bedeutenden Herausforderungen steht, die die Innovation in den kommenden Jahren bremsen könnten.

Generative KI ist der Höhepunkt jahrzehntelanger Forschung und milliardenschwerer Finanzierung. Als ChatGPT im Jahr 2022 auf den Markt kam, hatte die Technologie in der Forschung bereits ein hohes Niveau erreicht, was die Messlatte hoch ansetzte und die Gesellschaft ins kalte Wasser warf.

Der daraus resultierende Hype hat auch zu einer immensen Finanzierung von KI-Startups geführt, von Anthropic über Inflection und Stability AI bis hin zu MidJourney.

In Verbindung mit den großen internen Anstrengungen der Silicon-Valley-Veteranen Meta, Google, Amazon, Nvidia und Microsoft führte dies zu einer raschen Verbreitung von KI-Tools. Aus GPT-3 wurde schnell das Schwergewicht GPT-4. Inzwischen haben Konkurrenten wie LLMs wie Claude 3 Opus, xAIs Grok und Mistralund die Open-Source-Modelle von Meta haben sich ebenfalls durchgesetzt.

Einige Experten und Technologen wie Sam Altman, Geoffrey Hinton, Yoshio Bengio, Demis Hassabis und Elon Musk sind der Meinung, dass die Beschleunigung der KI gerade erst begonnen hat.

Musk sagte, generative KI sei wie "den Dämon wecken", während Altman sagte, KI-Gedankenkontrolle stehe unmittelbar bevor (was Musk mit jüngste Fortschritte bei Neuralink; siehe unten, wie ein Mann eine Schachpartie allein durch Gedanken spielte).

Andererseits sind Experten wie Gary Marcus und Yann LeCun der Meinung, dass wir auf Mauern stoßen und die generative KI vor einer introspektiven Phase oder einem "Winter" steht.

Dies wäre auf praktische Hindernisse zurückzuführen, wie steigende Energiekosten, die Grenzen des Brute-Force-Computings, Vorschriften und Materialknappheit.

Generative KI ist teuer in der Entwicklung und Wartung, und Die Monetarisierung ist nicht einfach. Technologieunternehmen müssen Wege finden, die Trägheit aufrechtzuerhalten, damit weiterhin Geld in die Branche fließt.

Dritte Debatte: KI-Sicherheit

Die Diskussionen über KI-Intelligenz und Fortschritt haben auch Auswirkungen auf die KI-Sicherheit. Wenn wir uns nicht darauf einigen können, was Intelligenz ausmacht oder wie sie zu messen ist, wie können wir dann gewährleisten, dass KI-Systeme sicher entwickelt und eingesetzt werden?

Da es kein gemeinsames Verständnis von Intelligenz gibt, ist es schwierig, angemessene Sicherheitsmaßnahmen und ethische Leitlinien für die Entwicklung von KI festzulegen.

Wer die Intelligenz der KI unterschätzt, unterschätzt auch die Notwendigkeit von KI-Sicherheitskontrollen und -vorschriften.

Umgekehrt verzerrt eine Überschätzung oder Übertreibung der Fähigkeiten der KI die Wahrnehmung und birgt die Gefahr einer Überregulierung. Dies könnte dazu führen, dass die Macht bei Big Tech liegt, die bei der Lobbyarbeit und der Beeinflussung der Gesetzgebung einen großen Einfluss haben. Und wenn sie einen Fehler machen, können sie die Geldstrafen bezahlen.

Letztes Jahr, langwierige X-Debatten zwischen Yann LeCun, Geoffrey Hinton, Max Tegmark, Gary Marcus, Elon Musk und zahlreichen anderen prominenten Persönlichkeiten der KI-Gemeinschaft zeigten die tiefen Gräben in der KI-Sicherheit auf. Big Tech hat hart an der Selbstregulierung gearbeitet und "freiwillige Richtlinien" erstellt, deren Wirksamkeit zweifelhaft ist.

Kritiker argumentieren außerdem, dass die Regulierung Big Tech die Möglichkeit gibt die Marktstrukturen zu stärkenSie müssen sich von Störern befreien und die Spielregeln der Branche nach ihren Vorstellungen gestalten.

Auf dieser Seite der Debatte argumentiert LeCun, dass die existenziellen Risiken der KI übertrieben dargestellt wurden und von den großen Technologieunternehmen als Vorwand benutzt werden, um auf Regelungen zu drängen, die den Wettbewerb ersticken und die Kontrolle konsolidieren würden.

LeCun und seine Befürworter weisen auch darauf hin, dass die unmittelbaren Risiken der KI, wie Fehlinformationen, tiefgreifende Fälschungen und Verzerrungen, den Menschen bereits Schaden zufügen und dringende Aufmerksamkeit erfordern.

Auf der anderen Seite haben Hinton, Bengio, Hassabis und Musk vor den potenziellen existenziellen Risiken der KI gewarnt.

Bengio, LeCun und Hinton, die oft als "Paten der KI" bezeichnet werden, weil sie in den 90er und frühen 2000er Jahren neuronale Netzwerke, Deep Learning und andere KI-Techniken entwickelt haben, sind auch heute noch einflussreich. Hinton und Bengio, deren Ansichten im Allgemeinen übereinstimmen, nahmen kürzlich an einem seltenen Treffen zwischen US-amerikanischen und chinesischen Forschern an der Internationaler Dialog über KI-Sicherheit in Peking.

Das Treffen erreichte seinen Höhepunkt in einer Erklärung: "In den Tiefen des Kalten Krieges half die internationale wissenschaftliche und staatliche Koordination, eine thermonukleare Katastrophe abzuwenden. Die Menschheit muss sich erneut koordinieren, um eine Katastrophe abzuwenden, die sich aus einer noch nie dagewesenen Technologie ergeben könnte.

Es muss gesagt werden, dass Bengio und Hinton nicht offensichtlich finanziell mit Big Tech verbunden sind und keinen Grund haben, die Risiken der künstlichen Intelligenz überzubewerten.

Hinton hat diesen Punkt selbst in einem Streit mit LeCun und dem ehemaligen Mitbegründer von Google Brain, Andrew Ng, angesprochen und betont, dass er Google verlassen hat, um frei über die Risiken von KI zu sprechen.

In der Tat haben viele große Wissenschaftler im Laufe der Jahre die Sicherheit der KI in Frage gestellt, darunter auch der verstorbene Stephen Hawking, der die Technologie als existenzielles Risiko ansah.

Diese wirbelnde Mischung aus polemischem Austausch lässt wenig Raum für Menschen, die einen Mittelweg suchen, was das Image der generativen KI als polarisierende Technologie noch verstärkt.

Die Regulierung der KI hat inzwischen zu einem geopolitischen Thema werdenDie USA und China arbeiten trotz eskalierender Spannungen in anderen Bereichen zaghaft in Sachen KI-Sicherheit zusammen.

So wie sich die Experten nicht einig sind, wann und wie die KI die menschlichen Fähigkeiten übertreffen wird, unterscheiden sie sich auch in ihrer Einschätzung der Risiken und Herausforderungen bei der Entwicklung sicherer und nützlicher KI-Systeme.

Die Debatten über KI-Intelligenz sind nicht nur prinzipieller oder philosophischer Natur - sie sind auch eine Frage der Governance.

Wenn sich Experten selbst über die grundlegenden Elemente der KI-Intelligenz und -Sicherheit vehement streiten, kann eine Regulierung nicht darauf hoffen, den Interessen der Menschen zu dienen.

Um einen Konsens zu schaffen, müssen Experten, KI-Entwickler, Regierungen und die Gesellschaft im Allgemeinen zu einer harten Erkenntnis gelangen.

Um die KI in die Zukunft zu führen, müssen jedoch neben vielen anderen Herausforderungen auch einige Technologieführer und Experten zugeben, dass sie sich geirrt haben. Und das wird nicht einfach sein.

Join The Future


HEUTE ABONNIEREN

Klar, prägnant, umfassend. Behalten Sie den Überblick über KI-Entwicklungen mit DailyAI

Sam Jeans

Sam ist ein Wissenschafts- und Technologiewissenschaftler, der in verschiedenen KI-Startups gearbeitet hat. Wenn er nicht gerade schreibt, liest er medizinische Fachzeitschriften oder kramt in Kisten mit Schallplatten.

×

KOSTENLOSES PDF EXKLUSIV
Mit DailyAI immer einen Schritt voraus

Melden Sie sich für unseren wöchentlichen Newsletter an und erhalten Sie exklusiven Zugang zum neuesten eBook von DailyAI: 'Mastering AI Tools: Ihr Leitfaden für mehr Produktivität im Jahr 2024".

*Mit der Anmeldung zu unserem Newsletter akzeptieren Sie unsere Datenschutzbestimmungen und unsere Bedingungen und Konditionen