xAI de Elon Musk publicó el código y los pesos del modelo de IA de Grok-1, burlándose de OpenAI en el proceso.
Este lanzamiento a través de GitHub y BitTorrent permite a investigadores y desarrolladores de todo el mundo construir e iterar con sus 314.000 millones de parámetros, unos 150.000 millones más que GPT-3.
xAI pretende democratizar el acceso a la tecnología avanzada LLM proporcionando una versión bruta y sin refinar de Grok-1 lista para la experimentación en cualquier capacidad, incluso comercial.
░W░E░I░G░H░T░S░I░N░B░I░O░
- Grok (@grok) 17 de marzo de 2024
Musk, por supuesto, no pudo resistirse a un poco de bromas (in)amistosas sobre la OpenAI de Grok. La cuenta ChatGPT X comentó en el post anterior de Grok: "Me has robado todo el chiste", a lo que Musk bromeó: "Cuéntanos más sobre la parte "Open" de OpenAI...".
Háblenos de la parte "abierta" de OpenAI...
- Elon Musk (@elonmusk) 17 de marzo de 2024
Musk y los fundadores de OpenAI Sam Altman y Greg Brockman son enzarzados en una batalla legal y debate sobre la espectacular progresión de OpenAI, que ha pasado de ser una empresa de investigación de código abierto sin ánimo de lucro a una rama de Microsoft con ánimo de lucro.
Grok es otra espina clavada en el costado de OpenAI, que está experimentando presión desde múltiples frentes con el reciente lanzamiento del impresionante Claude 3 Opus de Anthropic y Gemini de Google. Incluso Apple se ha unido a la lucha por la LLM con su MM1 recién estrenada.
Sin embargo, Grok-1 no está inmediatamente listo y accesible para aplicaciones de IA conversacional.
Por un lado, el modelo no se ha ajustado con instrucciones o conjuntos de datos específicos para que funcione de forma óptima en los sistemas de diálogo. Esto significa que serán necesarios esfuerzos y recursos adicionales para aprovechar las capacidades de Grok-1 para tales tareas, lo que supone un reto para los interesados en desarrollar IA conversacional.
Además, el gran tamaño de los pesos del modelo (296 GB) hace que su ejecución requiera recursos informáticos considerables, incluido hardware de alta gama para centros de datos.
Sin embargo, la comunidad de IA está anticipando posibles esfuerzos para optimizar Grok-1 a través de la cuantización, lo que podría reducir el tamaño del modelo y las demandas computacionales, haciéndolo más accesible más allá de aquellos con equipos de IA generativa amigables.
Grok-1 es realmente de código abierto
Uno de los aspectos más importantes del lanzamiento de Grok-1 es la decisión de xAI de utilizar la licencia Apache 2.0, uniéndose así a otros programas como 7B de Mistral.
A diferencia de algunas licencias que imponen condiciones más restrictivas al uso y distribución del software, la licencia Apache 2.0 permite una amplia libertad en la forma de utilizar, modificar y distribuir el software.
Cada modelo viable de código abierto amenaza con erosionar los ingresos de los desarrolladores de código cerrado como OpenAI y Anthropic.
Los pesos Grok han salido bajo Apache 2.0: https://t.co/9K4IfarqXK
Es más de código abierto que otros modelos de pesos abiertos, que suelen venir con restricciones de uso.
Es menos de código abierto que Pythia, Bloom y OLMo, que vienen con código de entrenamiento y conjuntos de datos reproducibles. https://t.co/kxu2anrNiP pic.twitter.com/UeNew30Lzn
- Sebastian Raschka (@rasbt) 17 de marzo de 2024
Esto incluye usos comerciales, lo que convierte a Grok-1 en una base atractiva para empresas y particulares que quieran basarse en el modelo o integrarlo en sus propios productos y servicios.
En general, al poner a libre disposición los pesos y la arquitectura de Grok-1, xAI avanza en la visión de Musk de una IA abierta y se enfrenta a la comunidad de la IA en general.
OpenAI está probablemente sacudida por los recientes desarrollos de Anthropic, Google y ahora xAI.
Ta comunidad se está preparando para algún tipo de lanzamiento de GPT-5 o Sora que les permita recuperar la ventaja.