Die KI-Sicherheitsaktivistengruppe PauseAI koordinierte weltweite Proteste, um eine Pause bei der Entwicklung von KI-Modellen, die leistungsfähiger als GPT-4 sind, zu fordern.
Am Montag versammelten sich Demonstranten in 14 Städten auf der ganzen Welt, darunter New York, London, Sydney und Sao Paulo, um auf die potenziellen Risiken der KI aufmerksam zu machen.
Das erklärte Ziel des Protestes ist laut PauseAIs Website ist es, "die wenigen mächtigen Personen (Minister), die den nächsten KI-Sicherheitsgipfel (22. Mai) besuchen werden, davon zu überzeugen, dass sie die Erwachsenen im Raum sind. Es liegt an uns, ihnen klar zu machen, dass die Risiken zu groß sind, um sie zu ignorieren, und dass sie die Einzigen sind, die die Macht haben, das Problem zu lösen.
Es ist soweit. Unser zweiter internationaler Protest.https://t.co/FlF1y5jpO2 pic.twitter.com/RmOcRtbKiC
- PauseAI ⏸ (@PauseAI) 12. Mai 2024
Der AI-Gipfel in Seoul, der am 21. und 22. Mai stattfindet, ist die 6-monatige Folgeveranstaltung des UK AI-Sicherheitsgipfel die im November letzten Jahres stattfand. Der anfängliche Enthusiasmus für die internationale Zusammenarbeit im Bereich der KI-Sicherheit scheint zu schwinden, denn mehrere Teilnehmer ziehen sich von dem bevorstehenden Gipfel zurück.
PauseAI ist pragmatisch und erkennt an, dass "wir nicht erwarten können, dass Länder oder Unternehmen ihren Wettbewerbsvorteil riskieren, indem sie KI-Trainingsläufe für eine lange Zeit pausieren, wenn andere Länder oder Unternehmen nicht dasselbe tun. Deshalb brauchen wir eine globale Pause".
Sie wollen, dass das Hauptziel des kommenden Gipfels die Einrichtung einer internationalen Agentur für KI-Sicherheit ist, ähnlich der IAEO. Ironischerweise ist dies etwas, das OpenAI CEO Sam Altman auch vorgeschlagen.
Die Proteste von PauseAI, die einen Stopp für fortschrittlichere Modelle forderten, fanden am selben Tag statt, an dem OpenAI freigegeben GPT-4odie schnellere und leistungsfähigere Version des GPT-4-Modells.
Während die KI-Fans über die neuen Fähigkeiten von GPT-4o staunten, waren die PauseAI-Protestler weniger begeistert über das exponentielle Wachstum der neuen KI-Modelle.
Werden Sitzstreiks, Plakate und das Verteilen von Flugblättern ausreichen, um die führenden Politiker der Welt dazu zu bewegen, die Maßnahmen zu ergreifen, die die Menschheit laut PauseAI braucht? Kann der unaufhaltsame Marsch der KI-Fortschritte lange genug aufgehalten werden, um sicherzustellen, dass KI-Sicherheitsleitplanken vorhanden sind?
PauseAI glaubt, dass es möglich ist. In einem Beitrag auf X, sagte die Gruppe, "AGI ist nicht unvermeidlich. Sie erfordert Horden von Ingenieuren mit Millionen von Dollar Gehältern. Sie erfordert eine voll funktionsfähige und uneingeschränkte Lieferkette für die komplexeste Hardware. Sie erfordert, dass wir alle diesen Unternehmen erlauben, mit unserer Zukunft zu spielen."
Proteste haben sich als wirksam erwiesen, um Maßnahmen gegen gentechnisch veränderte Lebensmittel, Atomwaffen und den Klimawandel zu erreichen. Aber die mit diesen Themen verbundenen Gefahren werden von den führenden Politikern der Welt eher akzeptiert.
Die Auseinandersetzungen über künftige KI-Sicherheitsfragen müssen mit der wachsenden Begeisterung über die greifbaren Vorteile der KI konkurrieren, die die Menschheit bereits jetzt erfährt.
Werden die PauseAI-Protestler ihr Ziel erreichen und sich die Dankbarkeit der Menschheit verdienen? Werden sich ihre Befürchtungen letztlich als unbegründet erweisen? Oder werden sie diejenigen sein, die am Ende sagen: "Wir haben es euch gesagt".