CoreWeave gana la carrera por el cómputo de inferencia que los gigantes ignoraron

CoreWeave gana la carrera por el cómputo de inferencia que los gigantes ignoraron

Mientras AWS, Azure y Google compiten por entrenamiento de modelos, CoreWeave construyó silenciosamente el negocio que ninguno quiso: el cómputo de producción donde los modelos generan dinero real.

Clara MontesClara Montes11 de abril de 20267 min
Compartir

CoreWeave gana la carrera por el cómputo de inferencia que los gigantes ignoraron

El 10 de abril de 2026, CoreWeave anunció un acuerdo plurianual con Anthropic para proveer capacidad de GPUs Nvidia en centros de datos estadounidenses, específicamente destinada a las cargas de producción que alimentan los modelos Claude. Los términos financieros no se divulgaron, pero la reacción del mercado fue contundente: las acciones de CoreWeave subieron más del 10% en la misma jornada.

Eso no fue lo más revelador del día. Lo más revelador fue que ese anuncio llegó apenas 24 horas después de que Meta confirmara una ampliación de su compromiso con CoreWeave por 21.000 millones de dólares adicionales, elevando el valor total de esa relación a aproximadamente 35.000 millones. Dos de los diez principales desarrolladores de modelos de IA del planeta apostando, con diferencia de un día, por la misma infraestructura. Para una empresa que en 2025 facturó 5.130 millones de dólares con un crecimiento del 168% interanual, eso no es tracción: es la señal de que CoreWeave construyó algo que los hipernubes no supieron o no quisieron construir.

El nicho que Amazon, Microsoft y Google dejaron libre

Existe una distinción técnica que durante años pasó desapercibida en las salas de estrategia de las grandes nubes: entrenar un modelo de IA es un problema de cómputo masivo y relativamente tolerante a la latencia; ejecutarlo en producción a escala empresarial es un problema completamente distinto. La inferencia, que es el proceso mediante el cual un modelo como Claude responde a millones de usuarios simultáneos, exige baja latencia, alta disponibilidad y una arquitectura de hardware específicamente optimizada para ese patrón de uso.

AWS, Azure y Google Cloud construyeron sus ofertas de GPU principalmente alrededor del entrenamiento, donde los grandes clientes firman contratos largos y consumen bloques de cómputo de forma predecible. Ese mercado tiene márgenes aceptables y una dinámica comercial conocida. La inferencia en producción, en cambio, es más impredecible, más exigente en términos de configuración, y requiere una especialización operativa que los hipernubes trataron como un caso de uso secundario. CoreWeave se instaló exactamente en ese hueco.

Hoy opera 32 centros de datos con más de 250.000 GPUs y 1,3 gigavatios de capacidad eléctrica contratada. Su cartera de clientes incluye nueve de los diez principales desarrolladores de modelos de IA del mundo: Microsoft, Meta, OpenAI, Mistral, Cohere, IBM y Nvidia, entre otros. La suma de esos contratos se traduce en un backlog de 66.000 millones de dólares y una guía de ingresos para 2026 que supera los 12.000 millones. Estos no son números de una empresa que encontró un nicho marginal: son los números de una empresa que definió una categoría.

Por qué Anthropic eligió salir de las nubes tradicionales

La decisión de Anthropic de firmar con CoreWeave dice algo específico sobre cómo los desarrolladores de modelos maduros están repensando su relación con la infraestructura. Anthropic ya había comprometido 100 millones de dólares para desarrollar su red de socios empresariales alrededor de Claude. Eso implica que el modelo necesita funcionar con consistencia, a baja latencia y a escala, para clientes corporativos que no toleran degradaciones de rendimiento.

Las grandes nubes ofrecen ese cómputo, pero dentro de plataformas diseñadas para ser horizontales, donde el cliente de IA compite por recursos con el cliente de bases de datos relacionales, el cliente de streaming de video y el cliente de procesamiento de nóminas. CoreWeave ofrece infraestructura diseñada exclusivamente para cargas de trabajo de IA. Esa especificidad no es un argumento de marketing: se traduce en métricas de rendimiento que importan cuando un modelo está respondiendo a 100.000 solicitudes simultáneas en una aplicación empresarial.

El acuerdo con CoreWeave también permite a Anthropic implementar el cómputo de forma escalonada, con opciones de expansión, lo que le da flexibilidad sin comprometer la capacidad base que necesita para sus clientes actuales. En un mercado donde la escasez de GPUs Nvidia sigue siendo estructural, asegurar ese acceso mediante un proveedor especializado reduce un riesgo operativo concreto.

El portavoz de CoreWeave lo formuló con precisión inusual para un comunicado corporativo: "La IA ya no se trata solo de infraestructura, sino de las plataformas que convierten los modelos en impacto real". Esa frase describe exactamente el trabajo que Anthropic necesitaba contratar: no GPUs genéricas, sino la capacidad de poner Claude a trabajar en condiciones de producción sin que el rendimiento colapse.

El riesgo estructural que dos acuerdos no resuelven

El éxito de CoreWeave tiene una grieta que los inversores identificaron desde su salida a bolsa y que el mercado sigue monitoreando de cerca: Microsoft representó aproximadamente el 67% de sus ingresos en 2025. Esa concentración en un solo cliente convierte cualquier cambio en la relación comercial con Microsoft en un riesgo sistémico para la empresa.

Los acuerdos con Meta y Anthropic en 48 horas son la evidencia más directa de que CoreWeave está ejecutando una estrategia deliberada de diversificación. Pero el trabajo está lejos de terminarse. Si Meta ahora representa una porción significativa del backlog plurianual, CoreWeave habrá cambiado la concentración en un cliente por concentración en dos. El riesgo disminuye, pero no desaparece.

Hay además un factor de ejecución que los números proyectados no capturan: sostener 32 centros de datos, incorporar nueva capacidad para satisfacer 66.000 millones en compromisos contratados y hacerlo mientras los costos de energía y construcción siguen siendo volátiles, requiere una precisión operativa que pocas empresas de este tamaño y velocidad de crecimiento han demostrado de forma sostenida. La guía de más de 12.000 millones para 2026 implica más que doblar los ingresos en un solo año. Eso no es imposible dado el backlog existente, pero exige que la cadena de aprovisionamiento de hardware, contratos de energía y construcción de infraestructura funcione sin fricciones significativas.

El modelo de CoreWeave convierte costos variables de cómputo en compromisos fijos de largo plazo para sus clientes, lo que protege sus ingresos futuros pero transfiere la presión de ejecución hacia adentro. Si un centro de datos se retrasa o una compra de GPUs se demora por restricciones de oferta de Nvidia, el impacto no lo absorbe el cliente: lo absorbe CoreWeave.

El trabajo contratado detrás del acuerdo

La trayectoria de CoreWeave desde minería de Ethereum hasta proveedor de cómputo para nueve de los diez principales desarrolladores de IA del mundo es relevante no porque sea una historia de resiliencia corporativa, sino porque ilustra cómo una empresa puede redefinir su propósito alrededor de un problema específico del cliente que nadie más estaba resolviendo bien.

El acuerdo con Anthropic no confirma que CoreWeave tiene buena tecnología. Confirma que identificó el trabajo concreto que Anthropic, Meta, OpenAI y otros necesitaban contratar: no capacidad de cómputo genérica, sino infraestructura de inferencia que haga que los modelos funcionen con fiabilidad cuando los usuarios los usan, no cuando los ingenieros los prueban. Esa distinción, aparentemente técnica, es en realidad la separación entre un proveedor de commodities y una empresa con poder de fijación de precios en un mercado donde la demanda supera estructuralmente a la oferta.

El éxito de este modelo demuestra que el trabajo que los grandes desarrolladores de IA estaban contratando nunca fue acceso a GPUs: fue la garantía de que sus modelos rendirían en producción sin que la infraestructura se convirtiera en el cuello de botella del negocio.

Compartir
0 votos
¡Vota por este artículo!

Comentarios

...

También te puede interesar

CoreWeave y Anthropic: el negocio de la inferencia IA | Sustainabl