Elon Musks xAI hat den KI-Modellcode und die Gewichte von Grok-1 veröffentlicht und dabei OpenAI verhöhnt.
Diese Veröffentlichung über GitHub und BitTorrent ermöglicht es Forschern und Entwicklern weltweit, mit den 314 Milliarden Parametern zu arbeiten und zu iterieren - etwa 150 Milliarden mehr als bei GPT-3.
xAI zielt darauf ab, den Zugang zu fortschrittlicher LLM-Technologie zu demokratisieren, indem es eine rohe, nicht verfeinerte Version von Grok-1 bereitstellt, mit der in jeder Hinsicht experimentiert werden kann - auch kommerziell.
░W░E░I░G░H░T░S░I░N░B░I░O░
- Grok (@grok) 17. März 2024
Musk konnte natürlich nicht widerstehen, ein wenig (un)freundliches Geplänkel über das Open-Sourcing von Grok zu machen. Der ChatGPT X-Account kommentierte den obigen Beitrag von Grok mit "hat meinen ganzen Witz geklaut", woraufhin Musk witzelte: "Erzählen Sie uns mehr über den "offenen" Teil von OpenAI...".
Erzählen Sie uns mehr über den "offenen" Teil von OpenAI ...
- Elon Musk (@elonmusk) 17. März 2024
Musk und die OpenAI-Gründer Sam Altman und Greg Brockman sind in einen Rechtsstreit verwickelt und die Debatte über die dramatische Entwicklung von OpenAI von einem gemeinnützigen Open-Source-Forschungsunternehmen zu einem gewinnorientierten Zweig von Microsoft.
Grok ist ein weiterer Dorn im Auge von OpenAI, das mit der jüngsten Veröffentlichung von Anthropics beeindruckendem Claude 3 Opus und Googles Gemini von mehreren Seiten unter Druck gerät. Sogar Apple hat sich mit seinem LLM-Projekt neu veröffentlicht MM1.
Grok-1 ist jedoch nicht sofort für KI-Anwendungen im Bereich Konversation einsatzbereit und zugänglich.
Zum einen wurde das Modell nicht mit spezifischen Anweisungen oder Datensätzen auf eine optimale Leistung in Dialogsystemen abgestimmt. Dies bedeutet, dass zusätzliche Anstrengungen und Ressourcen erforderlich sind, um die Fähigkeiten von Grok-1 für solche Aufgaben zu nutzen, was eine Herausforderung für diejenigen darstellt, die an der Entwicklung von KI für Konversationen interessiert sind.
Darüber hinaus bedeutet die schiere Größe der Gewichte des Modells - stolze 296 GB -, dass die Ausführung des Modells beträchtliche Rechenressourcen erfordert, einschließlich High-End-Hardware der Rechenzentrumsklasse.
Die KI-Gemeinschaft erwartet jedoch potenzielle Bemühungen zur Optimierung von Grok-1 durch Quantisierung, wodurch die Größe des Modells und die Rechenanforderungen reduziert werden könnten, so dass es auch für Personen mit generativen KI-freundlichen Systemen zugänglicher wird.
Grok-1 ist eine echte Open-Source-Lösung
Einer der wichtigsten Aspekte der Veröffentlichung von Grok-1 ist die Entscheidung von xAI, die Apache 2.0-Lizenz zu verwenden. Mistral's 7B.
Im Gegensatz zu anderen Lizenzen, die restriktivere Bedingungen für die Nutzung und Verbreitung der Software vorsehen, lässt die Apache 2.0-Lizenz weitgehende Freiheit bei der Nutzung, Änderung und Verbreitung der Software zu.
Jedes tragfähige Open-Source-Modell droht die Einnahmen von Closed-Source-Entwicklern wie OpenAI und Anthropic zu schmälern.
Grok-Gewichte sind unter Apache 2.0 verfügbar: https://t.co/9K4IfarqXK
Es ist quelloffener als andere Modelle mit offenem Gewicht, die in der Regel mit Nutzungseinschränkungen verbunden sind.
Es ist weniger quelloffen als Pythia, Bloom und OLMo, die über Trainingscode und reproduzierbare Datensätze verfügen. https://t.co/kxu2anrNiP pic.twitter.com/UeNew30Lzn
- Sebastian Raschka (@rasbt) 17. März 2024
Dies schließt auch kommerzielle Anwendungen ein und macht Grok-1 zu einer attraktiven Grundlage für Unternehmen und Einzelpersonen, die auf dem Modell aufbauen oder es in ihre eigenen Produkte und Dienstleistungen integrieren möchten.
Indem xAI die Gewichte und die Architektur von Grok-1 frei verfügbar macht, treibt sie Musks Vision einer offenen KI voran und konfrontiert die KI-Gemeinschaft im Allgemeinen.
OpenAI ist wahrscheinlich durch die jüngsten Entwicklungen von Anthropic, Google und jetzt xAI erschüttert.
Tie Community bereitet sich auf eine Art GPT-5- oder Sora-Veröffentlichung vor, mit der sie wieder die Oberhand gewinnen wird.