Harry Potter und die Effektiven Altruisten mit OpenAI

21. November 2023

Die Entscheidung, Sam Altam zu entlassen, könnte von den altruistischen Idealen der Vorstandsmitglieder von OpenAI beeinflusst worden sein. Interims-CEO Emmett Shear teilt einige ihrer Befürchtungen über KI.

Im Großen und Ganzen besteht das Konzept des Effektiven Altruismus (EA) darin, sich der dringendsten Probleme der Welt anzunehmen und logische Maßnahmen zu ergreifen, um die positiven Ergebnisse für die Menschheit zu maximieren.

Auf den Bereich der künstlichen Intelligenz angewandt, schlagen viele der Befürworter von EA angesichts des rasanten Entwicklungstempos und der potenziellen existenziellen Risiken für die Menschheit Alarm.

Auf der anderen Seite des Spektrums stehen die "Effective Accelerationists" (e/acc), die sagen, dass die KI uns nicht alle umbringen wird und wir uns schneller bewegen sollten.

Mindestens die Hälfte der derzeitigen Vorstandsmitglieder von OpenAI scheinen auf der Seite von EA zu stehen, und ihre Ängste vor KI könnten der Grund dafür gewesen sein jüngste Entwicklungen im Unternehmen.

Helen Toner leitete früher Effective Altruism Melbourne, und Tasha McCauley sitzt im Vorstand von Effective Ventures, das das Centre For Effective Altruism betreibt.

Emmett Shear eingeben

In einem kürzlich erschienenen Podcast hat Emmett Shear, der dritte CEO von OpenAI in fast ebenso vielen Tagen, die Ansichten der EA-Propheten des KI-Untergangs unterstützt.

Shear ist auch ein Fan des KI-Forschers Eliezer Yudkowsky, der einen Harry-Potter-Fanroman geschrieben hat, der rationales und wissenschaftliches Denken propagiert. Harry Potter und die Methoden der Rationalität (HPMOR) ist in der EA-Gemeinschaft sehr beliebt und wird bei ihren Rekrutierungsbemühungen verwendet.

In Kapitel 104 des 660.000 Wörter umfassenden Romans schreibt Yudowsky über einen Sucher namens Emmett Shear, der bei einem Quidditch-Match von einem Besenstiel fällt.

Emmett Shear wird in einem Harry-Potter-Fanfiction-Roman erwähnt. Quelle: Weniger Falsch

Wenn Shear die extremeren Ansichten Yudowskys in Bezug auf die Sicherheit von KI teilt, können wir bei OpenAI mit weiteren Bremsmanövern rechnen.

Anfang dieses Jahres schlossen sich führende Vertreter der Technologiebranche wie Elon Musk und Emad Mostaque Tausenden von Unterzeichnern eines offenen Briefes an, in dem sie eine sechsmonatige Pause in der KI-Entwicklung forderten. Yudowsky lehnte es ab, den Brief zu unterzeichnen, da er "den Ernst der Lage unterschätzt und zu wenig fordert, um sie zu lösen".

In einem Brief veröffentlicht in Time Yudowsky sagte, dass die Entwicklung von KI vollständig gestoppt werden sollte, da sonst "buchstäblich jeder auf der Erde sterben wird".

In seinem Brief äußerte sich Yudowsky unmissverständlich: "Wenn jemand unter den gegenwärtigen Bedingungen eine zu mächtige KI baut, erwarte ich, dass jedes einzelne Mitglied der menschlichen Spezies und alles biologische Leben auf der Erde kurz darauf stirbt."

Wir wissen, dass Shear mit einigen dieser Ansichten übereinstimmt. Im obigen Clip sagt Shear: "Ich weiß, dass Eliezer denkt, dass wir alle mit Sicherheit dem Untergang geweiht sind. Ich kaufe sein Untergangsargument. Ich kaufe die Kette und die Logik."

Wird EA uns retten und OpenAI verdammen?

Die meisten Menschen haben wahrscheinlich zum ersten Mal von effektivem Altruismus gehört, als der in Ungnade gefallene FTX-Gründer Sam Bankman Fried auf den Plan trat. Er behauptete, die Prinzipien von EA stünden hinter seinem Wunsch, viel Geld zu verdienen, um viel Gutes zu tun.

Sein Beispiel zeigt, dass Menschen, die den starken Wunsch haben, etwas Positives zu bewirken, nicht davor gefeit sind, sehr dumme Entscheidungen zu treffen.

Wenn der Vorstand von OpenAI weiterhin den Prinzipien von EA den Vorrang gibt, dann ist es schwer zu sehen, wie Sam Altman AGI und Rentabilität verfolgen könnte, wenn er wieder ernannt wird.

Wenn das Gremium seine Ansichten mäßigt und auf Befürworter von e/acc wie Informatiker hört Yann LeCundann könnte OpenAI immer noch ein lebensfähiges Projekt sein.

Mark Zuckerberg ermutigte seine Ingenieure bekanntlich, "schnell zu handeln und Dinge zu zerstören". Altman mag diese Ansicht zur KI-Entwicklung teilen, aber die derzeitige OpenAI-Führung tut dies eindeutig nicht.

Join The Future


HEUTE ABONNIEREN

Klar, prägnant, umfassend. Behalten Sie den Überblick über KI-Entwicklungen mit DailyAI

Eugene van der Watt

Eugene kommt aus der Elektronikbranche und liebt alles, was mit Technik zu tun hat. Wenn er eine Pause vom Konsum von KI-Nachrichten einlegt, findet man ihn am Snookertisch.

×

KOSTENLOSES PDF EXKLUSIV
Mit DailyAI immer einen Schritt voraus

Melden Sie sich für unseren wöchentlichen Newsletter an und erhalten Sie exklusiven Zugang zum neuesten eBook von DailyAI: 'Mastering AI Tools: Ihr Leitfaden für mehr Produktivität im Jahr 2024".

*Mit der Anmeldung zu unserem Newsletter akzeptieren Sie unsere Datenschutzbestimmungen und unsere Bedingungen und Konditionen