OpenAI CEO, Sam AltmanNach Ansicht des Ausschusses sollte eine internationale Agentur eingerichtet werden, die leistungsstarke zukünftige KI-Modelle überwacht, um die Sicherheit zu gewährleisten.
In einem Interview mit dem All-In-Podcast, Altman sagte, dass wir bald KI-Modelle sehen werden, die wesentlich leistungsfähiger und potenziell gefährlicher sein werden.
Altman Ich denke, dass es in nicht allzu ferner Zukunft - wir sprechen hier nicht von Jahrzehnten - einen Zeitpunkt geben wird, an dem KI-Systeme in der Lage sind, weltweit erheblichen Schaden anzurichten", sagte er.
Die US und EU Behörden haben beide Gesetze zur Regulierung von KI erlassen, aber Altman glaubt nicht, dass eine starre Gesetzgebung mit der rasanten Entwicklung der KI Schritt halten kann. Er ist auch kritisch gegenüber einzelnen US Staaten, die versuchen, KI unabhängig zu regulieren.
Apropos erwartete fortschrittliche KI-Systeme, Altman sagte: "Und für diese Art von Systemen haben wir eine globale Aufsicht über Atomwaffen oder synthetische Biowaffen oder andere Dinge, die wirklich sehr negative Auswirkungen haben können, die weit über den Bereich eines Landes hinausgehen.
Ich würde mir eine Art internationale Agentur wünschen, die sich mit den leistungsstärksten Systemen befasst und für angemessene Sicherheitstests sorgt."
Altman sagte, dass diese Art der internationalen Aufsicht notwendig sei, um zu verhindern, dass eine superintelligente KI in der Lage ist, "zu entkommen und sich selbst zu verbessern".
Altman räumte ein, dass die Aufsicht über leistungsstarke KI-Modelle zwar notwendig ist, eine Überregulierung der KI jedoch den Fortschritt behindern könnte.
Der von ihm vorgeschlagene Ansatz ähnelt der internationalen Atomregulierung. Die Internationale Atomenergie-Organisation (IAEO) hat die Aufsicht über Mitgliedsstaaten mit Zugang zu bedeutenden Mengen an Kernmaterial.
"Wenn die Grenze, ab der wir nur noch Modelle betrachten, die auf Computern trainiert wurden, die mehr als 10 Milliarden oder mehr als 100 Milliarden Dollar oder was auch immer kosten, wäre ich damit einverstanden. Es gäbe eine Grenze, die in Ordnung wäre. Und ich glaube nicht, dass dies eine regulatorische Belastung für Start-ups darstellt", erklärte er.
Altman erläuterte, warum er den Ansatz der Agentur für besser hielt als den Versuch, KI gesetzlich zu regeln.
"Der Grund, warum ich mich für einen agenturbasierten Ansatz für das große Ganze eingesetzt habe, und nicht für das Schreiben von Gesetzen, ist, dass in 12 Monaten alles falsch geschrieben sein wird... Und ich glaube nicht, dass diese Leute, selbst wenn sie echte Weltexperten wären, es richtig machen könnten. Auf Sicht von 12 oder 24 Monaten", sagte er.
Wann wird das GPT-5 veröffentlicht?
Auf die Frage nach einem Termin für die Veröffentlichung des GPT-5, Altman war vorhersehbar abweisend, deutete aber an, dass es vielleicht nicht so kommt, wie wir denken.
"Wir lassen uns Zeit, wenn wir große Modelle herausbringen... Ich weiß auch nicht, ob wir es GPT-5 nennen werden", sagte er.
Altman wies auf die schrittweisen Verbesserungen hin OpenAI auf GPT-4 gemacht hat, und sagte, dass diese besser zeigen, wie das Unternehmen zukünftige Verbesserungen einführen wird.
Es scheint also weniger wahrscheinlich, dass wir eine "GPT-5"-Version sehen werden, sondern eher, dass zusätzliche Funktionen zu GPT-4 hinzugefügt werden.
Wir müssen abwarten, bis OpenAIWir werden im Laufe des Tages die Aktualisierungsankündigungen der Kommission lesen, um zu sehen, ob wir weitere Hinweise darauf erhalten, was ChatGPT Änderungen, die wir erwarten können, zu sehen.
Wenn Sie sich das ganze Interview anhören möchten, können Sie hier anhören.