Sam Altman, CEO von OpenAI, heizt die Diskussion über die Regulierung von KI in Erwartung der "Superintelligenz" an.
In einem neuen Artikel, der auf der Website OpenAI-Blogdiskutieren der CEO des Unternehmens, Sam Altman, und seine Kollegen Ilya Sutskever und Greg Brockman über die Entwicklung der KI hin zur "Superintelligenz", auch bekannt als Künstliche allgemeine Intelligenz (AGI).
Dies geschieht weniger als eine Woche nachdem Sam Altman vor dem Kongress ausgesagtund stellt fest, dass die KI "dringend" reguliert werden muss, um die Gesellschaft zu schützen und gleichzeitig ihre Vorteile zu bewahren.
Superintelligenz beschreibt KI, die die kognitiven Fähigkeiten des Menschen übertrifft, ein Meilenstein, der laut Altman, Sutskever und Brockman in den nächsten zehn Jahren erreicht werden kann.
Solche KIs wären in der Lage, eine Produktivität zu erreichen, die der einiger der größten Unternehmen der Welt entspricht, und die Gesellschaft sowohl zum Positiven als auch zum Negativen zu verändern.
Der Artikel schlägt drei mögliche Wege vor, um die Risiken der Superintelligenz zu mindern:
1: Koordinierung
Altman, Sutskever und Brockman fordern eine enge Zusammenarbeit zwischen führenden KI-Experten, um die Sicherheit zu gewährleisten und die Integration der Superintelligenz in die Gesellschaft zu erleichtern.
Dies könnte im Rahmen von Regierungsprojekten oder durch gegenseitige Vereinbarungen zwischen Unternehmen geschehen, bei denen sich die führenden KI-Unternehmen darauf einigen, die Wachstumsrate der Intelligenz ihrer Modelle zu begrenzen.
2: Internationale Überwachung
Zweitens schlagen sie vor, eine internationale Agentur für Superintelligenz nach dem Vorbild der 1957 gegründeten Internationalen Atomenergie-Organisation (IAEO) einzurichten, um die Risiken der neuen Nukleartechnologie zu mindern.
Die von der Agentur geschaffenen rechtlichen Rahmenbedingungen würden auf freiwilliger Basis und durch die nationalen Regierungen umgesetzt.
3: Öffentliche Beaufsichtigung
Drittens fordert OpenAI ein öffentliches Engagement bei den Regeln für Superintelligenz und schlägt vor, dass die Öffentlichkeit die "Grenzen und Vorgaben" der KI durch ein demokratisches System überwachen sollte.
Altman, Sutskever und Brockman sagen: "Wir wissen noch nicht, wie man einen solchen Mechanismus konstruiert, aber wir planen, mit seiner Entwicklung zu experimentieren." OpenAI hatte zuvor beschrieben die Standardeinstellungen als das Standardverhalten einer KI und die Grenzen als die Begrenzungen ihrer Fähigkeiten.
OpenAI argumentiert auch, dass Open-Source-Projekte, die unterhalb eines bestimmten Schwellenwerts entwickelt werden, gefördert werden sollten.
Sie erklären: "Wir glauben, dass es unintuitiv riskant und schwierig wäre, die Entstehung von Superintelligenz zu stoppen".
Angesichts des exponentiellen Wachstums der KI in den letzten zehn Jahren könnten sich die Visionen von OpenAI für eine regulierte KI-Landschaft als vorausschauend erweisen.
Die KI-Branche wird jedoch sicherlich durch den Aufruf des Unternehmens zur Zusammenarbeit und die Bereitschaft zur Regulierung auf die Probe gestellt werden. Bislang gibt es nur wenige Anzeichen für eine gegenseitige Zusammenarbeit zwischen führenden KI-Unternehmen.
Die Förderung von Wettbewerbszielen bei gleichzeitigem Schutz der Öffentlichkeit wird eine Herausforderung sein - und wenn man OpenAI Glauben schenken darf, ist es jetzt an der Zeit, im Bereich der KI-Superintelligenz zu handeln.