A pesar de su inmensa popularidad, OpenAI está supuestamente quemando efectivo a un ritmo insostenible y podría enfrentarse a la asombrosa pérdida de $5 mil millones a finales de 2024.
Según un sorprendente informe de Informaciónque cita estados financieros internos no publicados y cifras del sector que revelan que OpenAI ya ha gastado unos 1.400 millones de euros en modelos de formación y hasta 1.500 millones de euros en personal.
Dylan Patel de SemiAnalysis había dicho anteriormente a The Information que OpenAI supuestamente bifurcó algunos $700.000 al día sus modelos en 2022, registrando pérdidas de casi $500 millones sólo ese año.
A pesar de generar importantes ingresos, estimados entre $3.500 y $4.500 millones anuales, los gastos de OpenAI superan con creces sus ingresos.
La empresa ya ha recaudado más de $11.000 millones a través de siete rondas de financiación y actualmente está valorada en $80.000 millones.
Sin embargo, a pesar de que ChatGPT es un nombre muy conocido con millones de usuarios en todo el mundo, OpenAI podría resultar un auténtico pozo de dinero para los inversores si nada cambia.
Microsoft, el mayor patrocinador de OpenAI con diferencia, ya ha invertido miles de millones en la empresa en los últimos años.
Se rumoreaba que su inyección de efectivo más reciente, $10 mil millones a principios de 2023, incluía una tajada de 75% de los beneficios de OpenAI y una participación de 49% en la empresa, así como la integración de ChatGPT en Bing y otros sistemas de Microsoft.
A cambio, OpenAI recibe acceso a los servidores en la nube de Azure a una tarifa sustancialmente reducida.
Pero en el mundo de la IA generativa, nunca hay suficientes chips, hardware en la nube o ideas revolucionarias que cambien el mundo y necesiten miles de millones para despegar.
OpenAI ha invertido mucho en ser el primero en lograr la inteligencia general artificial (AGI), una empresa ambiciosa e increíblemente cara.
El Consejero Delegado, Sam Altman, ya ha insinuado que no parará hasta conseguirlo.
Participa en desarrollo de la fusión nuclear y debatió la creación de un proyecto internacional de chips con el respaldo de los EAU y el gobierno de EE.UU. por valor de billones.
La competencia está al rojo vivo
La competencia en el espacio de la IA generativa también se está intensificando, con grandes actores como Google, Amazon, Meta, etc., todos compitiendo por un trozo del pastel.
Aunque ChatGPT sigue siendo el chatbot de IA más reconocido, cada vez capta una parte menor de los ingresos totales en juego.
Además, la división de código abierto, encabezada en gran medida por Mistral y Meta, está construyendo modelos cada vez más potentes que son más baratos y controlables que los proyectos de laboratorio cerrados de OpenAI, Google y otros.
Como Barbara H. Wixom, investigadora científica principal del Centro de Investigación de Sistemas de Información del MIT, lo expresa acertadamenteComo cualquier herramienta, la IA no crea valor a menos que se utilice correctamente. La IA es ciencia de datos avanzada, y hay que tener las capacidades adecuadas para trabajar con ella y gestionarla correctamente."
Y ahí radica un punto crítico. Si una organización tiene el dinero y los conocimientos técnicos para aprovechar la IA generativa, no tiene por qué asociarse con empresas de código cerrado como OpenAI. En su lugar, puede crear su propia propias soluciones más personalizadas y soberanas.
Salesforce lo ha demostrado recientemente con el lanzamiento de un modelo compacto para llamadas API que destrozó los modelos fronterizos de OpenAI, Anthropic, etc.
OpenAI y otros intentan ir más allá con soluciones empresariales como ChatGPT Enterprisepero es difícil, ya que la IA generativa es costosa y la inversión no merece la pena en estos momentos.
Adam Selipsky, CEO de Amazon Web Services (AWS), se dijo a sí mismo en 2023Muchos de los clientes con los que he hablado están descontentos con el coste de algunos de estos modelos".
Las empresas de IA están respondiendo reduciendo los costes de sus modelos y lanzando versiones más ligeras como GPT-4o minipero esto también plantea un enigma. Cuándo se lanzan las empresas a la IA cuando las opciones no dejan de rotar?
2023 ofrece pocas respuestas para la monetización de la IA
El año 2023 ha servido de campo de pruebas para varios enfoques de monetización de la IA, pero ninguno es una bala de plata para los crecientes costes del sector.
Uno de los mayores retos de la monetización de la IA es que no ofrece la misma economía que el software convencional.
Cada interacción de un usuario con un modelo como ChatGPT requiere unos cálculos específicos, que consumen energía y generan unos costes continuos más elevados que aumentan a medida que más usuarios se unen al sistema.
Esto supone un enorme reto para las empresas que ofrecen servicios de IA a tanto alzado, ya que los gastos pueden superar rápidamente a los ingresos.
Si los costes de suscripción aumentan demasiado, la gente simplemente se dará de baja. Económico las encuestas sugieren que las suscripciones son una de las primeras cosas que se eliminan cuando la gente quiere reducir sus gastos.
La reciente colaboración de Microsoft con OpenAI en GitHub Copilot, un asistente de codificación de IA, sirvió como ejemplo de cómo las suscripciones pueden ser contraproducentes.
Microsoft cobraba una suscripción mensual de $10 por la herramienta, pero informó de una pérdida media mensual de más de $20 por usuario. Algunos usuarios avanzados infligieron pérdidas de hasta $80 al mes.
Es probable que ocurra algo parecido con otras herramientas de IA generativa. Muchos usuarios ocasionales se suscriben mensualmente a una sola de las muchas herramientas disponibles y pueden darse de baja fácilmente y cambiar a otra herramienta. Por otro lado, hay usuarios avanzados no rentables que consumen recursos sin contribuir a los beneficios.
Algunos creen que OpenAI ha intentado trucos sucios para mantener el flujo de dinero. Por ejemplo, la GPT-4o demoen perfecta sincronía con Google IO, reveló funciones de síntesis de voz en tiempo real que parecían abrir nuevos caminos y eclipsar los anuncios de Google.
Todavía estamos esperando a que se desplieguen estas funciones de voz tan anunciadas. OpenAI aún no las ha puesto a disposición de nadie, alegando problemas de seguridad.
"Estamos mejorando la capacidad del modelo para detectar y rechazar determinados contenidos", declaró OpenAI sobre el retraso.
"También estamos trabajando en mejorar la experiencia de usuario y en preparar nuestra infraestructura para escalar a millones de usuarios manteniendo las respuestas en tiempo real. Como parte de nuestra estrategia de despliegue iterativo, empezaremos la alfa con un pequeño grupo de usuarios para recabar opiniones y ampliarla en función de lo que aprendamos."
Las suscripciones premium se dispararon porque la gente estaba deseando utilizar esas nuevas funciones. Buscaba OpenAI aumentar sus ingresos a corto plazo con funciones que nunca estuvieron listas?
Los costes energéticos son otro obstáculo
Hay otro escollo en la misión de monetización de la IA generativa: el consumo de energía y agua.
En 2027, la energía consumida por la industria de la IA podría ser equivalente a la de una pequeña nación. Los recientes picos en el consumo de agua de Microsoft y Google se atribuyen en gran medida a las cargas de trabajo intensivas de IA.
Google divulgado recientemente que la IA estaba desviando sus estrategias de sostenibilidad. Las emisiones de CO2 de la empresa han aumentado en 48% desde 2019, y los ejecutivos han admitido que las cargas de trabajo de IA son las culpables.
La escasez de agua provocada por la IA se ha cebado recientemente con Taiwán, que ha empezado a redirigir agua de usos agrícolas a la IA en medio de una sequía en un intento de mantener la fabricación en línea. La escasez de agua también afectará a partes de Estados Unidos en 2023, por lo que habrá que hacer frente a auténticas repercusiones medioambientales.
Intervención en el Foro Económico Mundial, Altman dijoEn efecto, necesitamos mucha más energía en el mundo de la que creíamos necesitar antes. Aún no apreciamos las necesidades energéticas de esta tecnología".
Todo esto tiene un coste, tanto a nivel empresarial para Microsoft, Google, etc., como para las economías locales y nacionales.
Los próximos años serán cruciales para configurar la trayectoria de la IA generativa, tanto en términos de rentabilidad o inversión como de sostenibilidad y tensión entre ambas.
Como advierte Barbara H. Wixom, del MIT: "Hay que encontrar la manera de pagar esto. Si no, no podrás mantener las inversiones y tendrás que desconectar".
¿Se detendrá algún día la IA generativa? Hay que pensar que es demasiado grande para fracasar. Pero ahora mismo parece atascada en el purgatorio de la monetización, y es necesario que algo, desde algún lugar, le administre otra sacudida de progreso.
Puede que no haga falta mucho para empujar a la IA generativa hacia un punto álgido necesario en el que el progreso resulte barato y natural.
Potencia de fusión, hardware analógico de IA de bajo consumo, arquitecturas ligeras... todo está en proyecto... wSólo nos queda esperar y ver cuándo todo encajará.