Open-Source-KI, insbesondere die Llama-Modelle von Meta, haben eine Debatte über die Risiken der Freigabe leistungsstarker KI-Modelle für jedermann ausgelöst.
Letzte Woche demonstrierte eine Gruppe von Demonstranten vor den Büros von Meta in San Francisco und verurteilte die Entscheidung des Unternehmens, seine KI-Modelle zu veröffentlichen.
Auf einem Transparent stand: "Don't open source doomsday".
Der Protest wurde auf der Website Forum für wirksamen Altruismus und begründete dies folgendermaßen: "Metas Frontier-KI-Modelle sind grundsätzlich unsicher... Bevor es noch fortschrittlichere Modelle freigibt - die noch gefährlichere Fähigkeiten haben werden - fordern wir Meta auf, die verantwortungsvolle Freigabe ernst zu nehmen und die unumkehrbare Verbreitung zu stoppen."
Die Demonstranten haben auch eine Website hierin dem Folgendes zitiert wird Zuckerberg verharmlost die Sicherheit Auswirkungen von Open-Source-Modellversionen.
Kurz gesagt, bekannte Unternehmen wie OpenAI und Google beschränken ihre großen Sprachmodelle (LLMs) auf den API-Zugang. Sie sind geschlossene "Black Boxes", d. h. die Öffentlichkeit kann nicht sehen, was im Inneren des Modells passiert - nur die Eingaben und Ausgaben.
Im Gegensatz dazu machte Meta Schlagzeilen, indem es seine LLaMA-Modelle der KI-Forschungsgemeinschaft offen zur Verfügung stellte. Dies ermöglicht es technisch versierten Personen, die Modelle so anzupassen und zu optimieren, dass sie ihr volles Potenzial entfalten können, im Gegensatz zu geschlossenen KI, die mit Sicherheitsleitplanken programmiert sind.
Metas Ansatz zur KI-Entwicklung
Meta hat eine leicht antagonistische Rolle in der KI-Entwicklung eingenommen.
Während Google, OpenAI, Microsoft und Start-ups wie Anthropic und Inflection sich darauf stürzen, geschlossene KI unter Verschluss zu halten, hat sich Meta dafür entschieden, seine Open-Source-Modelle wie eine scharfe Granate in die Öffentlichkeit zu werfen.
Open Source AI sicherlich bedroht die Marktstrukturen Microsoft, OpenAI usw. sind darauf angewiesen, um ihre Produkte zu monetarisieren.
Metas Llama-Modell war berühmt für seine auf 4Chan durchgesickert und es dauerte nicht lange, bis das Unternehmen mit der Veröffentlichung von Llama 2 einen Schritt weiter ging.
Die Demonstranten argumentieren, dass die Open-Source-Initiativen von Meta eine "unumkehrbare Verbreitung" einer möglicherweise gefährlichen Technologie symbolisieren. Andere sind jedoch entschieden anderer Meinung und argumentieren, dass Open-Source-KI für die Demokratisierung der Technologie und die Schaffung von Vertrauen durch Transparenz unerlässlich ist.
Holly Elmore, die den Protest am Freitag vor Meta anführte, betonte, dass die Schöpfer die Kontrolle verlieren, sobald die Modellgewichte, die die Modelleingaben und -ausgaben beeinflussen, öffentlich zugänglich sind. Open-Source-Modelle können modifiziert und mit unethischen oder illegalen Folgen umgestaltet werden.
Elmore, der früher mit der Denkfabrik Rethink Priorities in Verbindung stand, erklärte: "Die Freigabe von Gewichten ist eine gefährliche Politik... Je mächtiger die Modelle werden, desto gefährlicher wird diese Politik."
Open-Source-KI wird ein kontroverses Thema bleiben, aber die Technologie der Kontrolle einiger weniger zu überlassen, ist möglicherweise keine günstige Alternative.