Der CEO von OpenAI, Sam Altman, sorgte für Aufregung in der Tech-Community, als er verkündete, dass künstliche allgemeine Intelligenz (AGI) "intern erreicht" worden sei, nur um später zu sagen, dass er "nur ein Mem" gemacht habe.
Sam Altman ist nicht so umstritten wie Elon Musk, aber er ist wegen eines spielerischen Scherzes, den manche für unangemessen halten, zu einer etwas polarisierenden Figur geworden. Immerhin gilt er als eine der einflussreichsten Personen in der Technologiebranche.
Altmans Scherz wurde in einem Beitrag im Reddit-Forum r/singularity gemacht, in dem er erklärte: "AGI wurde intern erreicht."
AGI, die Abkürzung für künstliche allgemeine Intelligenz, bezieht sich auf KI-Systeme, die mit den kognitiven Fähigkeiten des Menschen vergleichbar sind oder diese sogar übertreffen. OpenAI bezeichnet sich selbst als AGI-Entwickler und beabsichtigt, als erster dieses Paradigma zu "durchbrechen".
Altman revidierte seine schnoddrige Aussage bald und fügte einen Vorbehalt hinzu: "Offensichtlich ist das nur ein Mem, ihr habt keine Ruhe, wenn AGI erreicht ist, wird es nicht mit einem Reddit-Kommentar angekündigt."
Viele beschuldigten Altman auf Reddit und X des Trollens - Es ist vielleicht ein wenig befremdlich, wenn sich Menschen ernsthaft Sorgen um die Zukunft der KI machen.
EDIT: "agi wurde intern erreicht (EDIT natürlich ist das nur memeing, ihr habt keine Ruhe! wenn agi erreicht ist, wird es nicht mit einem reddit-Kommentar angekündigt...)" pic.twitter.com/nrEHnvuEcS
- Smoke-away (@SmokeAwayyy) 26. September 2023
Die "Singularität"
Das Forum, r/singularitätbeschäftigt sich in erster Linie mit Diskussionen über die technologische Singularität - den Punkt, an dem die Computerintelligenz möglicherweise die menschliche Intelligenz in den Schatten stellt, was zu unvorhersehbaren und unumkehrbaren Veränderungen in der Welt, wie wir sie kennen, führen könnte.
Der Hintergrund dieses Kommentars geht auf ein hypothetisches Szenario zurück, das der Philosoph Nick Bostrom von der Oxford University in seinem einflussreichen Buch von 2014, "Superintelligenz: Wege, Gefahren, Strategien.”
Bostrom beschreibt die existenziellen Risiken, die eine hochentwickelte KI mit sich bringen könnte. Eines seiner Gedankenexperimente, bekannt als "Büroklammer-Maximierer", zeichnet das Bild einer KI, deren unschuldige Absicht - so viele Büroklammern wie möglich zu produzieren - ungewollt zum Untergang der Menschheit führen könnte.
Er erklärt, dass die KI den menschlichen Körper als wertvolle Quelle für Atome zur Herstellung von Büroklammern betrachten würde.
In einer humorvollen Anspielung auf dieses Gedankenexperiment teilte der OpenAI-Forscher Will Depue im Anschluss an Altmans Beitrag ein mit KI gerendertes Bild auf Twitter, das "OpenAI-Büros, die mit Büroklammern überfüllt sind!
BREAKING NEWS: OpenAI-Büros quellen über vor Büroklammern! pic.twitter.com/rnV4dLi0cU
- willdepue (@willdepue) 26. September 2023
Bostrom postuliert auch: "Die KI wird schnell erkennen, dass es viel besser wäre, wenn es keine Menschen gäbe, weil die Menschen sich entscheiden könnten, sie abzuschalten."
Es handelt sich um eine bekannte Science-Fiction-Handlung - die Maschinen in der Matrix begannen zum Beispiel, Menschen zur Energiegewinnung zu ernten.
Wie Morpheus sagt: "Der menschliche Körper erzeugt mehr Bioelektrizität als eine 120-Volt-Batterie und über 25.000 BTU Körperwärme." Bostrum stellt die Theorie auf, dass KI zu solchen Schlussfolgerungen kommen könnte, wenn sie in den richtigen Szenarien provoziert wird.
Wenn die Menschheit durch Büroklammern ersetzt würde, wäre das gelinde gesagt ein seltsames Schicksal für die menschliche Rasse.