Die RAND Corporation, eine Denkfabrik mit engen Verbindungen zu den Finanzierungsnetzwerken von Tech-Milliardären, insbesondere durch Open Philanthropy, spielte eine entscheidende Rolle bei der Ausarbeitung der Durchführungsverordnung von Präsident Joe Biden zur KI.
Nach Angaben von PoliticoDieser Erlass, der stark vom effektiven Altruismus beeinflusst ist, einer Philosophie, die einen datengesteuerten Ansatz in der Philanthropie befürwortet, führte umfassende AI-Berichtsanforderungen ein.
Die Beteiligung von RAND hat aufgrund der beträchtlichen Finanzierung durch Gruppen wie Open Philanthropy, die mit Tech-Führern wie Dustin Moskovitz verbunden sind, Aufsehen erregt. Laut Jeffrey Hiday, Sprecher von RAND, besteht die Aufgabe von RAND darin, "Forschung und Analysen zu wichtigen aktuellen Themen durchzuführen und diese Forschung, Analysen und Fachkenntnisse mit politischen Entscheidungsträgern zu teilen".
Dazu gehörte eine umfassende Beratung über die jüngste Exekutivanordnungeinschließlich der Ausarbeitung der endgültigen Dokumente.
Zu Beginn dieses Jahres erhielt die RAND Corporation über $15 Millionen an diskretionären Zuschüssen von Open Philanthropy, die für KI- und Biosicherheitsprojekte bestimmt waren.
Open Philanthropy, bekannt für seinen effektiven Altruismus-Ansatz, unterhält sowohl persönliche als auch finanzielle Verbindungen zu KI-Unternehmen wie Anthropic und OpenAI.
Darüber hinaus sind führende Persönlichkeiten von RAND in die Unternehmensstrukturen dieser KI-Unternehmen eingebunden, die zumindest in den USA eine relativ kompakte Branche auf höchster Ebene darstellen.
Kritiker argumentieren, dass die Ausrichtung des Think Tanks auf effektiven Altruismus seinen Forschungsschwerpunkt verzerren und unmittelbare KI-Probleme wie rassistische Vorurteile oder Urheberrechtsverletzungen in den Hintergrund drängen könnte.
Die Dynamik bei RAND spiegelt auch einen breiteren Trend wider, bei dem effektiver Altruismus prägt zunehmend die KI-Politik - zumindest in ihre Erzählung einfließen. Diese Bewegung, die von kontroversen Persönlichkeiten wie Sam Bankman-Fried angeführt wird, setzt sich für die Bewältigung langfristiger existenzieller Risiken ein, einschließlich solcher, die von fortgeschrittener KI ausgehen, wie etwa die Entwicklung von Biowaffen.
Dieser Fokus wurde jedoch kritisiert, weil er möglicherweise den Interessen der führenden Technologieunternehmen dient, indem er die Aufmerksamkeit von bestehenden KI-Schäden ablenkt.
Effektiver Altruismus birgt die Gefahr, dass unmittelbare, praktische Maßnahmen zugunsten hypothetischer, langfristiger Pläne zurückgestellt werden.
OpenAIs interner Kampf: Altruismus vs. Kommerzialisierung
OpenAI, ursprünglich eine gemeinnützigeDas Unternehmen kämpft nun mit dem Spannungsverhältnis zwischen diesen altruistischen Zielen und den Realitäten des Geschäfts und der Gewinnerzielung, insbesondere nach Investitionen wie der $1 Milliarde von Microsoft und seiner jüngsten $86 Milliarden Bewertung.
Für OpenAI war es relativ einfach, diese Philosophie beizubehalten, als es an der Spitze der generativen KI-Industrie ziemlich einsam war.
Jetzt, da die Konkurrenz auf dem Vormarsch ist, insbesondere Googles Gemini Ultradie die Überlegenheit von GPT-4 direkt bedroht, ist es nicht besonders einfach, Zurückhaltung und Vorsicht walten zu lassen und gleichzeitig den begehrten Platz an der Spitze der KI-Modelle zu behalten.
Die Spannungen bei OpenAI spitzten sich unter der Leitung von CEO Sam Altman zu. Seine Herangehensweise an die Leitung von OpenAI verkörperte den Konflikt zwischen dem Techno-Kapitalismus des Silicon Valley und dem zunehmenden Narrativ über die Risiken von KI. Es wurde spekuliert, dass Altman die Sicherheit im Unternehmen nicht ernst nahm, was jedoch unbestätigt blieb.
Trotz der Bedenken der Vorstandsmitglieder hinsichtlich seines Engagements für Sicherheit und Transparenz bedeutete Altmans Wiedereinsetzung als CEO einen entscheidenden Moment in der Geschichte des Unternehmens und warf Fragen über den Einfluss von effektivem Altruismus und die Macht des Vorstands auf.
Die Frage ist nun, ob effektiver Altruismus und langfristige Ideale mit den rasanten kommerziellen und technologischen Fortschritten im KI-Sektor koexistieren können.
Regulierung kann die wertschöpfenden Aktivitäten von AI schützen
Zu Beginn des Jahres, Luke Sernau's Memo bei Google dass die Open-Source-KI-Gemeinschaft eine direkte Herausforderung für die Dominanz aller führenden KI-Entwickler darstellt.
In dem Memo heißt es: "Wir haben uns bei OpenAI oft über die Schulter geschaut. Wer wird den nächsten Meilenstein überschreiten? Was wird der nächste Schritt sein? Aber die unbequeme Wahrheit ist, dass wir nicht in der Lage sind, dieses Wettrüsten zu gewinnen, und OpenAI auch nicht. Während wir uns gestritten haben, hat eine dritte Fraktion im Stillen unser Mittagessen gegessen. Ich spreche natürlich von Open Source."
Open-Source-Modelle, z. B. LLaMA von Meta und Mistral's Mixtralschließen rasch die Lücke zwischen Basisinnovation und Big Tech.
Der Vorstoß von Unternehmen wie Google und OpenAI zur Regulierung der KI wird zwar als Schritt in Richtung einer verantwortungsvollen KI-Entwicklung dargestellt, kann aber auch die Open-Source-KI-Gemeinschaft untergraben, die eine dezentrale Alternative zu den zentralisierten Modellen bietet.
Natürlich sind Open-Source-Modelle auch billiger und ermöglichen es Unternehmen, Forschungseinrichtungen, Studenten und anderen Nutzern, ein gewisses Maß an Eigentum und Souveränität in ihre Lösungen einzubauen.
Sind die kommerziellen KI-Entwickler von echten Bedenken hinsichtlich der sicheren und ethischen Entwicklung von KI getrieben, oder handelt es sich teilweise um strategische Manöver, um die Marktdominanz und die Kontrolle über die KI-Innovation zu erhalten?
Die Überschneidung von Altruismus, Politik und Kommerz in der KI-Branche ist außerordentlich komplex. Im Zuge des Fortschritts der KI wird der Ausgleich dieser unterschiedlichen Interessen auch weiterhin die Gemüter spalten.