KI ist riskant, richtig? Das wurde uns allen im letzten Jahr gesagt. Aber nicht alle sind dieser Meinung, auch nicht einige Spitzenforscher.
X wurde heftig darüber gestritten, ob KI wirklich existenzielle Risiken birgt. Wir sprechen hier nicht von Fehlinformationen oder tiefgreifenden Fälschungen - obwohl diese bereits schlimm sind - sondern von Risiken, die mit Atomkatastrophen und Pandemien vergleichbar sind.
Diese Debatte wurde von dem KI-Risikoskeptiker und KI-Chef von Meta, Yann LeCun, angeführt, der neben Yoshua Bengio und Geoffrey Hinton als einer der so genannten "KI-Paten" gilt.
In LeCuns Schusslinie stehen der CEO von OpenAI, Sam Altman, der CEO von DeepMind, Demis Hassabis, und der CEO von Anthropic, Dario Amode, denen LeCun "massive Lobbyarbeit" vorwirft.
LeCun befürchtet insbesondere, dass die großen Tech-Bosse das Gerede über KI-Risiken und -Missbrauch anheizen, um die Regulierungsbehörden dazu zu bringen, die Branche zu ihren Gunsten abzusichern.
Big Tech hat die Zähne, um mit der Regulierung umzugehen, während kleinere Firmen und Open-Source-Entwickler dies nicht können. LeCun bezweifelt auch die oft geäußerte Vision einer "Singularität" der KI, bei der die Technologie plötzlich intelligenter wird als der Mensch und damit eine neue Ära der superintelligenten KI einläutet.
Andere, darunter auch Altman, gehen davon aus, dass die Entwicklung der künstlichen Intelligenz differenzierter und schrittweise erfolgen wird und nicht von heute auf morgen abläuft.
Der *einzige* Grund, warum die Leute wegen der KI-Risiken hyperventilieren, ist der Mythos des "harten Starts": die Vorstellung, dass die Menschheit in dem Moment, in dem man ein superintelligentes System einschaltet, dem Untergang geweiht ist.
Das ist absurd dumm und beruht auf einem *kompletten* Missverständnis der Funktionsweise.- Yann LeCun (@ylecun) 2. April 2023
LeCuns Argumenten zufolge kann Big Tech die KI-Risiken zu seinem Vorteil nutzen, indem es die Marktstrukturen stärkt und den Wettbewerb ausschaltet. Das eigentliche Risiko besteht laut LeCun darin, dass einige wenige KI-Entwickler die Branche beherrschen und ihren Kurs diktieren.
Er betonte den Ernst der Lage und erklärte: "Wenn diese Bemühungen Erfolg haben, wäre das Ergebnis eine Katastrophe, weil eine kleine Anzahl von Unternehmen die KI kontrollieren wird". Diese Aussage spiegelt den breiten Konsens in der Tech-Welt über das transformative Potenzial der KI wider und setzt ihre Bedeutung mit der des Mikrochips oder des Internets gleich.
Mit seinen Äußerungen reagierte LeCun auf den renommierten Physiker Max Tegmark, der angedeutet hatte, dass LeCun die existenziellen Risiken der KI nicht ernst genug nehme.
In einem öffentlichen Beitrag würdigte Tegmark die Bemühungen der führenden Politiker der Welt, die potenziellen Gefahren der KI zu erkennen, und erklärte: "Man kann sie nicht allein mit Sarkasmus und Unternehmenslobbyismus widerlegen."
Yann, ich würde mich freuen, wenn du Argumente statt Akronyme vorbringen würdest. Dank an @RishiSunak & @vonderleyen dafür, dass sie erkannt haben, dass die Argumente von Turing, Hinton, Bengio, Russell, Altman, Hassabis & Amodei zum Thema KI-Risiken nicht allein mit Sarkasmus und Unternehmenslobbyismus widerlegt werden können. https://t.co/Zv1rvOA3Zz
- Max Tegmark (@tegmark) 29. Oktober 2023
Inmitten des zunehmenden Einflusses von KI sind Persönlichkeiten wie Altman und Hassabis in den Mittelpunkt des öffentlichen Diskurses über Technologie gerückt. LeCun kritisiert jedoch, dass sie die Angst vor KI schüren und gleichzeitig davon profitieren.
Im März trafen sich über tausend führende Techniker, darunter Elon Musk, Altman und Hassabis, sprach sich für eine Pause aus in der KI-Entwicklung mit dem Hinweis auf erhebliche gesellschaftliche und humanitäre Risiken.
LeCun vertritt jedoch die Ansicht, dass diese dramatischen Warnungen nur ein Vorwand sind, um die Aufmerksamkeit von unmittelbaren Problemen wie Arbeiterausbeutung und Datendiebstahl.
LeCun fordert eine Neuausrichtung der Diskussion auf die Gegenwart und unmittelbare Zukunft der KI-Entwicklung. Er äußerte seine Besorgnis über die mögliche Auslöschung der Open-Source-KI-Gemeinschaft, wenn die KI-Entwicklung auf private, gewinnorientierte Unternehmen beschränkt wird.
Für LeCun steht viel auf dem Spiel: "Die Alternative, die unweigerlich eintreten wird, wenn Open-Source-KI nicht mehr existiert, ist, dass eine kleine Anzahl von Unternehmen von der Westküste der USA und aus China die KI-Plattform und damit die gesamte digitale Ernährung der Menschen kontrollieren wird", warnte er und mahnte, die Auswirkungen auf die Demokratie und die kulturelle Vielfalt zu bedenken.
Altman, Hassabis und Amodei sind diejenigen, die derzeit massive Lobbyarbeit für Unternehmen betreiben.
Sie sind diejenigen, die versuchen, die KI-Branche regulatorisch zu vereinnahmen.
Sie, Geoff und Yoshua geben denjenigen Munition, die sich für ein Verbot der offenen KI-Forschung und Entwicklung einsetzen.Wenn...
- Yann LeCun (@ylecun) 29. Oktober 2023
LeCun's Unterstützer
Die Argumente von LeCun finden in den sozialen Medien großen Anklang und stoßen bei Kommentatoren und Branchenexperten auf Zustimmung.
So äußerte Andrew Ng, eine Schlüsselfigur in der KI-Entwicklung und Mitbegründer von Google Brain, die Befürchtung, dass große Technologieunternehmen den Diskurs über KI manipulieren könnten, um eine Marktdominanz zu erreichen.
Nun, zumindest *ein* großes Tech-Unternehmen stellt KI-Modelle offen zur Verfügung und lügt nicht über das existenzielle Risiko von KI 😊.https://t.co/vyk4qkOzOq
- Yann LeCun (@ylecun) 31. Oktober 2023
In einem Interview mit der Australian Financial Review wies Ng auf einen Trend unter den Tech-Giganten hin, Ängste vor KI zu schüren, insbesondere die Vorstellung, dass sie zum Aussterben der Menschheit führen könnte. Wie LeCun und andere vermutet auch er, dass dieses Narrativ strategisch eingesetzt wird, um eine strengere KI-Regulierung zu erreichen und damit Open-Source-Initiativen und kleinere Wettbewerber zu behindern.
"Es gibt definitiv große Technologieunternehmen, die lieber nicht versuchen würden, mit Open Source zu konkurrieren, also schüren sie die Angst, dass KI zum Aussterben der Menschheit führt", erklärte Ng. "Das ist eine Waffe für Lobbyisten, um für Gesetze zu argumentieren, die der Open-Source-Gemeinschaft sehr schaden würden."
Zu Beginn des JahresIn einem durchgesickerten Google-Memo wird scheinbar zugegeben, dass Big Tech gegenüber Open Source an Boden verliert.
In dem Memo heißt es: "Open-Source-Modelle sind schneller, besser anpassbar, privater und leistungsfähiger. Sie machen Dinge mit $100 und 13B-Parametern, mit denen wir bei $10M und 540B zu kämpfen haben. Und sie schaffen das in Wochen, nicht in Monaten.
Open-Source-KI ist schnell, nicht monolithisch, privat und vor allem billig. Big Tech ist bereits Kämpfen um die Monetarisierung von KIAuf dem Papier macht das Ganze also Sinn: Die KI-Industrie soll reguliert werden, damit sich die Titanen durchsetzen können.
Ablenkung von unmittelbaren Bedrohungen
Es gibt noch eine andere Dimension dieser Debatte, die über das Geld hinausgeht.
Viele haben bekräftigt, dass die derzeitigen Risiken der KI, wie z. B. extrem ausgefeilte Fälschungen und Fehlinformationen, bereits ausreichen, um eine ausführliche Debatte und ein rasches Handeln zu rechtfertigen.
Aidan Gomez, ein prominenter KI-Forscher und CEO von Cohere, wies auch auf die Gefahr hin, sich zu sehr auf Untergangsszenarien zu konzentrieren.
Im Vorfeld der diese Woche stattfindenden AI-SicherheitsgipfelGomez wies darauf hin, dass unmittelbare Bedrohungen wie Fehlinformationen und die Erosion des gesellschaftlichen Vertrauens von Diskussionen über langfristige existenzielle Risiken überschattet werden.
"Ich denke, dass es im Hinblick auf existenzielle Risiken und die öffentliche Politik keine produktive Diskussion ist", erklärte Gomez und betonte, dass die unmittelbaren Risiken Vorrang haben müssen.
"Was die öffentliche Politik und die Frage angeht, worauf wir uns im öffentlichen Sektor konzentrieren sollten - oder auf den Versuch, das Risiko für die Zivilbevölkerung zu mindern -, so lenkt dies meiner Meinung nach von den Risiken ab, die viel greifbarer und unmittelbarer sind.
Gomez verweist auf den allgegenwärtigen Einfluss der KI in Produkten, die von Milliarden von Menschen genutzt werden, und betont die dringende Notwendigkeit, Risiken anzugehen, die sich aktiv auf die Öffentlichkeit auswirken. "Diese Technologie ist bereits in einer Milliarde von Produkten enthalten, wie bei Google und anderen. Das bringt eine Vielzahl neuer Risiken mit sich, die es zu diskutieren gilt. Keines davon ist existenziell, keines davon ist ein Weltuntergangsszenario", erklärte er.
Er bezeichnet Fehlinformationen als ein Hauptproblem, da KI-Modelle in der Lage sind, Medien zu erstellen, die "praktisch nicht von von Menschen erstellten Texten, Bildern oder Medien zu unterscheiden sind".
Fehlinformationen sind in der Tat der Staatsfeind Nummer eins in Bezug auf KI-Risiken, denn wir haben bereits Beispiele dafür gesehen, dass tiefgreifende Fälschungen für erfolgreiche Betrügereien eingesetzt wurden.
Tiefe Fälschungen vor der Nachspielzeit eingesetzt bei den slowakischen Wahlen zeigte, wie sie die Demokratie spürbar beeinflussen können.
Yoshua Bengio, Geoffrey Hinton und Elon Musk nehmen an der Debatte teil
Der "KI-Pate" Yoshua Bengio hat zusammen mit über 200 führenden Technikern und Forschern einen offenen Brief unterzeichnet, in dem er auf den dringenden Bedarf an sofortigen und umfassenden Maßnahmen hinweist.
Bengio steht nun an der Spitze eines internationalen Berichts, der auf dem britischen KI-Sicherheitsgipfel vorgestellt wurde. Er ist von den Risiken der KI überzeugt, ebenso wie Geoffrey Hinton, was bedeutet, dass 2/3 der "KI-Paten" in gewisser Weise besorgt sind.
Sie und Yoshua helfen ungewollt denjenigen, die die KI-Forschung und -Entwicklung unter Verschluss halten und ihr Geschäft schützen wollen, indem sie offene Forschung, Open-Source-Code und Open-Access-Modelle verbieten.
Dies wird mittelfristig unweigerlich zu schlechten Ergebnissen führen.
- Yann LeCun (@ylecun) 31. Oktober 2023
Auf seiner Website, Bengio schriebIch habe vor kurzem einen offenen Brief unterzeichnet, in dem ich fordere, die Entwicklung von riesigen KI-Systemen zu verlangsamen, die leistungsfähiger sind als GPT-4, d.h. die den Turing-Test bestehen und einem Menschen vorgaukeln können, dass er sich mit einem anderen Menschen und nicht mit einer Maschine unterhält.
Geoffrey Hinton aus dem Dreigestirn der KI-Paten hatte Google verlassen, um seine Befürchtungen in Bezug auf die KI "auszusprechen". Er ging sogar so weit zu sagen, dass er seine Arbeit bereue, weil KI missbraucht werden könnte. In einem Interview sagte er: "Ich tröste mich mit der üblichen Ausrede: Wenn ich es nicht getan hätte, hätte es jemand anderes getan.
Wie Bengio vertritt auch Hinton die Ansicht, dass KI ein ernsthaftes Aussterberisiko birgt. Er bezweifelt auch, dass das Open-Sourcing von Modellen die Sicherheitsbemühungen unterstützen könnte.
Kürzlich betonte er, dass seine Entscheidung, Google zu verlassen, im Widerspruch zur kritischen Haltung von LeCun et al. stehe, und erklärte auf X: "Andrew Ng behauptet, dass die Idee, dass KI uns auslöschen könnte, eine Big-Tech-Verschwörung sei. Ein Datenpunkt, der nicht zu dieser Verschwörungstheorie passt, ist, dass ich Google verlassen habe, um frei über die existenzielle Bedrohung sprechen zu können."
Andrew Ng behauptet, dass die Idee, dass KI uns aussterben lassen könnte, eine Big-Tech-Verschwörung ist. Ein Datenpunkt, der nicht zu dieser Verschwörungstheorie passt, ist, dass ich Google verlassen habe, um frei über die existenzielle Bedrohung sprechen zu können.
- Geoffrey Hinton (@geoffreyhinton) 31. Oktober 2023
Hinton, Bengio und andere führende KI-Forscher, darunter der einflussreiche chinesische Informatiker Andrew Yao, haben kürzlich hat ein Papier unterstützt die Risiken der KI zu beschreiben.
Hinton: "Die Unternehmen planen, innerhalb von 18 Monaten Modelle zu trainieren, die 100-mal rechenintensiver sind als der heutige Stand der Technik. Keiner weiß, wie leistungsfähig sie sein werden. Und es gibt im Grunde keine Vorschriften darüber, was sie mit diesen Modellen tun können."
Lasst uns auch Atomwaffen freigeben, um sie sicherer zu machen. Die Guten (wir) werden immer größere Waffen haben als die Bösen (sie), also sollte alles in Ordnung sein.
- Geoffrey Hinton (@geoffreyhinton) 31. Oktober 2023
Es ist in Ordnung, den Einsatz von Produkten zu regeln.
Bei lebenswichtigen Anwendungen wie der Fahrassistenz ist das notwendig.Was wir ablehnen, ist die Regulierung der KI-Forschung und -Entwicklung.
Insbesondere mit willkürlichen Beschränkungen der Berechnungsebenen.- Yann LeCun (@ylecun) 1. November 2023
Diese Debatte geht weiter und wird es auch weiterhin tun.
Ein X-Benutzer kommentierte dies wie folgt:
Gründerväter der künstlichen Intelligenz, die nach 2 Bong-Hits in einem Wohnheim debattieren pic.twitter.com/8MUze6hxBS
- Hassan Hayat 🔥 (@TheSeaMouse) 31. Oktober 2023
LeCun hat mit Elon Musk einen weiteren Gegenspieler, der nur selten bei einer hochrangigen X-Debatte fehlt, schon gar nicht bei einer, die fest in seinem Einflussbereich liegt (von seiner Plattform ganz zu schweigen).
Musk hat in der Vergangenheit immer wieder seine Besorgnis über künstliche Intelligenz geäußert, aber seine Haltung ist sehr unberechenbar geworden.
In letzter Zeit hat Musk die KI immer wieder als potenzielle existenzielle Bedrohung für die Menschheit bezeichnet und erklärt, die Entwicklung komplexer KI sei wie die "Beschwörung eines Dämons". Auf dem KI-Sicherheitsgipfel sagte er jedoch, er glaube, dass KI unter dem Strich positive Vorteile bringen werde.
In den letzten Monaten hat Musk OpenAI kritisiert, indem er auf eine Abweichung von der ursprünglichen Mission der Organisation hinwies und seine Besorgnis über deren "Closed-Source"-Richtung zum Ausdruck brachte, die stark von Microsoft beeinflusst ist.
Sowohl Musk als auch LeCun stimmen in ihrer Kritik an quelloffener KI weitgehend überein, was zeigt, dass die Befürwortung von KI-Risiken nicht immer gleichbedeutend mit der Verurteilung von Open Source ist.
Was das Thema Open-Source betrifft, so werden wir sehen, was Musk mit seinen Produkten machen wird. KI-Startup xAI veröffentlicht.
Google DeepMind-Chef wehrt sich gegen LeCuns "Angstmacherei"-Behauptung
Der Leiter von Google DeepMind, Demis Hassabis, reagierte auf die von LeCun erhobenen Vorwürfe und beschuldigte das Unternehmen, umfangreiche Lobbyarbeit zu betreiben, um die KI-Branche zu dominieren.
In einem Interview mit CNBCHassabis betonte, dass das Engagement von DeepMind in den KI-Diskussionen kein Versuch ist, eine "regulatorische Vereinnahmung" zu erreichen.
Als Antwort auf diese Behauptungen erklärte Hassabis: "Ich stimme mit den meisten dieser Kommentare von Yann nicht überein."
Er skizzierte drei Hauptkategorien von Risiken im Zusammenhang mit KI und betonte, wie wichtig es ist, unmittelbare Probleme wie Fehlinformationen, tiefgreifende Fälschungen und Verzerrungen anzugehen, aber auch den potenziellen Missbrauch von KI durch böswillige Akteure und langfristige Risiken im Zusammenhang mit künstlicher allgemeiner Intelligenz (AGI) zu berücksichtigen.
Er sprach sich dafür aus, Gespräche über die Regulierung superintelligenter KI lieber früher als später zu beginnen, um schlimme Folgen zu vermeiden.
Hassabis betonte den globalen Charakter der KI-Technologie und unterstrich die Notwendigkeit einer internationalen Zusammenarbeit, auch mit China, um verantwortungsvolle Entwicklungs- und Regulierungsstandards zu schaffen.
Sowohl er als auch James Manyika, Googles Senior Vice President für Forschung, Technologie und Gesellschaft, äußerten den Wunsch nach einem globalen Konsens über KI. Hassabis nahm am britischen KI-Sicherheitsgipfel teil, wo er sich der Meinung führender Politiker anschloss, die sich für KI-Sicherheit und -Aufsicht aussprachen.
Trotz der anhaltenden Spannungen zwischen den USA und China und des Zögerns amerikanischer Tech-Giganten, sich in China kommerziell zu engagieren, betonte Hassabis die Notwendigkeit der Kommunikation: "Ich denke, wir müssen in dieser Phase mit allen reden."
Gibt es einen Mittelweg?
Die Debatten über die potenziellen Risiken der KI und die notwendigen regulatorischen Maßnahmen erreichen einen kritischen Punkt.
In den letzten Wochen wurden immer mehr "offizielle Gespräche" über KI geführt, doch eine Regulierung ist noch nicht in Sicht.
Die US-Regulierung und das KI-Gesetz der EU werden die ersten festen Grundlagen für die KI-Governance schaffen.
LeCun hat ein überzeugendes Argument für die Monetarisierung von KI angesichts der Open-Source-Konkurrenz. Von Googles durchgesickertem Memo bis hin zu den kohärenten existenziellen Risiken, die von großen Tech-Bossen in den Mainstream-Medien vorgebracht werden, haben er und seine Unterstützer reichlich Munition.
Der fehlende Konsens geht jedoch über die Köpfe der gewinnorientierten KI-Entwickler bei Microsoft, DeepMind, Anthropic usw. hinaus.
Bengio und Hinton sind größtenteils parteilos, und der verstorbene Professor Stephen Hawking beispielsweise erklärte, dass dies "das Ende der menschlichen Rasse bedeuten könnte" und sich als "schlimmstes Ereignis in der Geschichte unserer Zivilisation" erweisen könnte.
Forscher haben die Fähigkeit von KI-Systemen nachgewiesen selbstständig neue Ziele entwickelndie bei unsachgemäßer Handhabung katastrophale Folgen haben können. Andere Experimente haben gezeigt, dass KI-Systeme aktiv nach Ressourcen suchen, Energie ansammeln und Maßnahmen ergreifen können, um nicht abgeschaltet zu werden.
Es gibt stichhaltige Beweise für KI-bedingte Schäden, aber stehen sie in einem angemessenen Verhältnis zu den Alarmglocken, die von den großen Tech-Bossen geläutet werden?
Und, was vielleicht noch wichtiger ist, kann man ihnen wirklich zutrauen, dass sie die Branche für alle ethisch korrekt führen, unabhängig davon, ob ein Risiko besteht oder nicht?
Vielleicht sollten wir das Vorgehen der großen Technologiekonzerne als das ultimative Glücksspiel betrachten.
KI ist höchstwahrscheinlich riskant, aber einige wenige Unternehmen wollen sich dieses Risiko zu eigen machen, es bis an seine Grenzen ausreizen und es so gestalten, wie sie es für richtig oder falsch halten.
Big Tech könnte das Spiel so aufladen, dass das Haus immer gewinnt, solange es stehen bleibt.