OpenAI hat angekündigt, die Forschung im Bereich der "Superintelligenz" - einer Form der KI mit Fähigkeiten, die über den menschlichen Intellekt hinausgehen - zu verstärken.
Während KI-Superintelligenz mag noch in weiter Ferne liegen, aber OpenAI glaubt, dass die Entwicklung innerhalb weniger Jahre stattfinden könnte.
OpenAI sagt: "Derzeit haben wir keine Lösung, um eine potenziell superintelligente KI zu steuern oder zu kontrollieren und zu verhindern, dass sie abtrünnig wird." Das ist eine ziemlich ominöse Aussage des weltweit führenden KI-Unternehmens.
Um die Risiken der superintelligenten KI zu mindern, plant OpenAI die Einführung neuer Governance-Strukturen und die Bereitstellung von Ressourcen für die Anpassung der Superintelligenz, um hochintelligente KI mit menschlichen Prinzipien und Werten in Einklang zu bringen. Der Zeitrahmen für die Umsetzung dieses Ziels beträgt 4 Jahre.
In einem BlogeintragOpenAI hat sich drei Hauptziele gesetzt: die Entwicklung skalierbarer Trainingsmethoden, die Validierung des resultierenden Modells und das gründliche Testen des Abgleichprozesses. Dazu gehört auch die Automatisierung des Prozesses der Entdeckung von problematischem Verhalten in großen Modellen. Um dies zu erreichen, schlägt OpenAI die Entwicklung eines spezialisierten "automatisierten Alignment-Forschers" vor - eine KI, die mit dem Alignment von KI beauftragt ist.
OpenAI stellt auch ein Team hochkarätiger (menschlicher) Forscher und Ingenieure für maschinelles Lernen zusammen, um diese Herkulesaufgabe zu bewältigen. Zur Unterstützung stellt das Unternehmen in den nächsten vier Jahren 20% seiner erworbenen Rechenressourcen für die Anpassung der Superintelligenz bereit.
Das neu gegründete "Superalignment-Team" wird diese Aufgabe übernehmen, angeführt von OpenAI-Mitbegründer und Chief Scientist Ilya Sutskever und Head of Alignment Jan Leike.
Außerdem plant OpenAI, die Ergebnisse dieser Arbeit mit anderen zu teilen. Sie wiesen auch darauf hin, dass ihre bestehenden Arbeiten zur Verbesserung der Sicherheit aktueller Modelle wie ChatGPT und zur Abschwächung anderer KI-Risiken, wie Missbrauch, wirtschaftliche Störungen und Desinformation, fortgesetzt werden.
In dem Blogeintrag wird auch um Interesse an ihren Stellen für Forschungsingenieur, Forschungswissenschaftlerund Forschungsleiter Stellen. Das niedrigste angegebene Gehalt liegt bei $245.000 jährlich und reicht bis zu $450.000.
OpenAIs Techniken zur KI-Anpassung
In einem früheren Blogeintrag über Superintelligenz beschreibt OpenAI 2 weitreichende Angleichungstechniken:
1: KI mit menschlichem Feedback trainieren: Bei diesem Ansatz geht es um die Verfeinerung der KI anhand menschlicher Reaktionen und Anweisungen. Eine KI wird zum Beispiel darauf trainiert, Antworten zu geben, die sowohl auf direkte Befehle als auch auf subtilere Absichten abgestimmt sind. Die KI lernt aus expliziten Anweisungen und eher impliziten Signalen, wie z. B. der Gewährleistung wahrheitsgemäßer und sicherer Antworten. Ein menschenzentrierter Ansatz kann jedoch mit komplexen Fähigkeiten zu kämpfen haben und ist mühsam und zeitaufwändig.
2: Trainingsmodelle zur Unterstützung der menschlichen Bewertung: Der zweite Ansatz erkennt an, dass es mit zunehmender Entwicklung der KI Aufgaben gibt, die für den Menschen schwer zu bewerten sind. Bei diesem Ansatz wird die KI also eingesetzt, um Aufgaben auszuführen und die Qualität dieser Aufgaben zu bewerten. So könnte eine KI beispielsweise dabei helfen, die Richtigkeit von Informationen zu überprüfen, lange Dokumente zusammenzufassen, um sie leichter auswerten zu können, oder sogar ihre eigene Arbeit zu kritisieren.
Das Endziel ist die Entwicklung von KI-Systemen, die den Menschen bei der Bewertung komplexer Aufgaben wirksam unterstützen können, da die KI-Intelligenz die Grenzen der menschlichen Kognition überschreitet.
OpenAI sagt, sie glauben, dass die Ausrichtung auf Superintelligenz "machbar" ist. Obwohl die Aussicht auf eine superintelligente KI Lichtjahre entfernt scheint, wäre es unklug anzunehmen, dass OpenAI nur optimistisch ist.