Max Tegmark, MIT-Professor, Physiker und Mitbegründer des Future of Life Institute, hat sich besorgt über das unerbittliche Tempo der KI-Entwicklung geäußert.
Er vermutet, dass der intensive Wettbewerb zwischen den Technologieunternehmen eine solide Selbstregulierung weniger wahrscheinlich macht.
Innerhalb von nur einem Jahr haben große Unternehmen wie OpenAI und Google mindestens zwei Generationen von KI-Modellen herausgebracht.
GPT-4 stellt eine massive Verbesserung gegenüber GPT-3.5 dar und übertrifft dessen Parameter um das Fünf- bis Zehnfache
Anfang des Jahres forderte Tegmark in einem offenen Brief eine sechsmonatige Pause bei der Entwicklung fortschrittlicher KI-Systeme.
Der Brief erhielt massive Unterstützung von Branchenführern, Politikern und verschiedenen Persönlichkeiten des öffentlichen Lebens und wurde von über 30.000 Personen unterzeichnet, darunter Elon Musk und der Mitbegründer von Apple, Steve Wozniak.
In dem Schreiben werden die potenziellen Gefahren einer ungezügelten KI-Entwicklung anschaulich beschrieben. Er forderte die Regierungen auf, einzugreifen, wenn die großen KI-Akteure wie Google, OpenAI, Meta und Microsoft keinen Konsens darüber erzielen können, wie die Vorteile der KI genutzt und gleichzeitig ihre Risiken gemildert werden können.
Das Center for AI Safety (CAIS) verglich die Risiken der KI mit einem Atomkrieg
Im Anschluss an dieses erste Schreiben veröffentlichte der CAIS eine von zahlreichen führenden Vertretern der Technologiebranche und Akademikern unterstützte Erklärung, in der die von der KI ausgehenden gesellschaftlichen Risiken mit denen von Pandemien und Atomkriegen verglichen wurden.
Die Die Erklärung des CAIS lautetDie Minderung des Risikos des Aussterbens durch KI sollte neben anderen gesellschaftlichen Risiken wie Pandemien und Atomkrieg eine globale Priorität sein.
Doch trotz der Ansicht, dass Selbstregulierung notwendig ist, bis eine Regulierung in Kraft tritt, hat die Technologiebranche das Tempo der KI-Fortschritte weitgehend beibehalten.
Tegmark reflektierte über die Auswirkungen des Briefes und die Gründe für den begrenzten Erfolg beim Aufhalten der KI-Entwicklung, gegenüber dem Guardian angibtIch hatte das Gefühl, dass viele Unternehmensleiter, mit denen ich gesprochen habe, [eine Pause] wollten, aber sie waren in diesem Wettlauf nach unten gegeneinander gefangen. Kein Unternehmen kann also allein eine Pause einlegen."
Tegmark wies jedoch darauf hin, dass die Debatten um ein verstärktes politisches Bewusstsein für die Sicherheit von KI zunehmen, und verwies auf die Anhörungen im US-Senat, die erste von Chuck Schumer AI-Insight-Forumund im November Global AI Safety Summit im Vereinigten Königreich.
Mit Blick auf die Zukunft warnte Tegmark davor, die Entwicklung einer "gottähnlichen allgemeinen Intelligenz" als weit entfernte Bedrohung zu betrachten, und verwies auf einige in der KI-Gemeinschaft, die glauben, dass ihre Verwirklichung näher sein könnte, als viele vermuten - nämlich OpenAI.
Abschließend betonte Tegmark die Bedeutung von Sicherheitsstandards in der KI-Entwicklung und äußerte Bedenken gegenüber Open-Source-KI-Modellen wie Metas Llama 2.
Er zog eine Parallele zu anderen potenten Technologien und warnte: "Gefährliche Technologie sollte nicht quelloffen sein, egal ob es sich um Biowaffen oder Software handelt."