OpenAI hat seine Nutzungsrichtlinien dahingehend geändert, dass seine KI-Produkte in einigen militärischen Anwendungen eingesetzt werden können, da das Unternehmen in mehreren Projekten mit dem Pentagon zusammenarbeitet.
OpenAI arbeitet an mehreren Projekten des Verteidigungsministeriums, darunter Cybersicherheitsfähigkeiten und Methoden zur Verhinderung von Selbstmord bei Veteranen. Außerdem unterstützt es die DARPA bei ihrer AI Cyber Challenge, um automatisch Software-Schwachstellen zu finden und zu beheben und kritische Infrastrukturen vor Cyberangriffen zu schützen.
Die Zusammenarbeit von OpenAI mit dem US-Militär ist eine Abkehr von der bisherigen Politik des Unternehmens, die eine militärische Nutzung seiner Produkte verbietet. Bis vor ein paar Tagen waren auf der Seite mit den Nutzungsrichtlinien "Militär und Kriegsführung" in der Liste der verbotenen Anwendungen aufgeführt.
In den aktualisierten Bedingungen wird das Wort "Militär" nicht mehr erwähnt, aber es heißt nach wie vor, dass die Instrumente nicht verwendet werden dürfen, um jemandem Schaden zuzufügen oder um Waffen zu entwickeln.
In einem Interview im Bloomberg House auf dem Weltwirtschaftsforum in Davos sagte Anna Makanju, OpenAIs Vizepräsidentin für globale Angelegenheiten: "Weil wir zuvor ein im Wesentlichen pauschales Verbot von Militär hatten, dachten viele Leute, dass dies viele dieser Anwendungsfälle verbieten würde, von denen die Leute denken, dass sie sehr gut mit dem übereinstimmen, was wir in der Welt sehen wollen."
Die Angestellten der großen Technologieunternehmen im Silicon Valley haben sich oft dagegen gesträubt, dass ihre technischen Leistungen für militärische Anwendungen genutzt werden.
2019 unterzeichneten Microsoft-Mitarbeiter einen Brief, in dem sie gegen den $480-Millionen-Vertrag des Unternehmens zur Lieferung von Augmented-Reality-Headsets an die US-Armee protestierten. Letztes Jahr protestierten Mitarbeiter von Google und Microsoft gegen ein gemeinsames Projekt, bei dem die Unternehmen Cloud-Computing-Dienste für die israelische Regierung und das Militär bereitstellen sollten.
Ein Sprecher von OpenAI sagte gegenüber CNB: "Unsere Politik erlaubt es nicht, dass unsere Werkzeuge verwendet werden, um Menschen zu schaden, Waffen zu entwickeln, die Kommunikation zu überwachen, andere zu verletzen oder Eigentum zu zerstören. Es gibt jedoch Anwendungsfälle für die nationale Sicherheit, die mit unserer Mission übereinstimmen."
Wenn diese Aufgabe darin besteht, Geld für die Aktionäre zu verdienen, dann hat OpenAI möglicherweise den ersten Schritt auf einem schlüpfrigen Weg getan. Könnten wir in Zukunft "WarGPT" sehen?
Im November erklärte die stellvertretende Verteidigungsministerin Kathleen Hicks, dass KI "ein wichtiger Bestandteil des umfassenden, auf den Soldaten ausgerichteten Innovationsansatzes ist, den Minister Austin und ich vom ersten Tag an verfolgt haben".
Es scheint unvermeidlich, dass KI in einem breiten Spektrum militärischer Anwendungen, einschließlich Waffen, zum Einsatz kommen wird. Die Frage ist, wessen KI-Modelle unter der Haube stecken werden.