Cuando el techo de horas reemplaza al precio por uso
El 29 de septiembre de 2025, Anthropic lanzó Claude Sonnet 4.5. Sin comunicado formal, sin carta a sus suscriptores Pro, los límites de uso de Claude Code pasaron de un rango de 40 a 80 horas semanales —cifra que la propia empresa había comprometido en un correo del 28 de julio de 2025— a un margen de apenas 6 a 8 horas efectivas de trabajo por semana. No fue un ajuste marginal. Fue un recorte de más del 80% en la capacidad operativa de quienes habían construido flujos de trabajo enteros sobre esa promesa.
Lo que siguió fue predecible: ingenieros de startups exigiendo explicaciones en GitHub, hilos de Hacker News llenándose de frustraciones, y una comunidad técnica empezando a distribuir su carga de trabajo entre ChatGPT, Gemini y otras alternativas. Anthropic respondió con tickets de soporte prometiendo mejor documentación. Ninguna reversión. Ningún anuncio público.
Este episodio merece más que un análisis de relaciones públicas fallidas. Revela una fractura estructural en cómo las empresas de IA están intentando monetizar la potencia de cómputo, y por qué esa arquitectura las coloca en una posición cada vez más frágil frente a sus propios clientes.
La promesa rota como síntoma, no como causa
Anthropic no recortó los límites por descuido. Lo hizo porque su estructura de costos de infraestructura y su modelo de suscripción plana no están alineados. Cuando un usuario Pro paga una tarifa mensual fija y puede consumir entre 40 y 80 horas de cómputo intensivo a la semana mediante Claude Code —un agente diseñado para refactorizar bases de código completas, no para responder preguntas puntuales— la economía unitaria se deteriora con cada usuario que usa el producto exactamente como fue prometido.
Esta es la trampa clásica de ofrecer acceso ilimitado a un recurso que tiene un costo marginal real y significativo. Las GPU no son infinitas. Los modelos más recientes consumen más por inferencia. Y Sonnet 4.5, al convertirse en el modelo predeterminado de Claude Code sin opción de revertirlo desde la interfaz principal, incrementó automáticamente el costo por sesión para Anthropic sin incrementar el ingreso por suscriptor.
El resultado es un sistema de límites dinámicos que opera en dos capas: una ventana de cinco horas para actividad por ráfaga, y un techo semanal de cómputo activo que unifica el consumo desde el navegador, la API, la interfaz de línea de comandos y las extensiones de entorno de desarrollo. La empresa llama a esto un "presupuesto de conversación". Sus usuarios lo llaman un freno que apareció de la nada.
La consecuencia inmediata no es solo la insatisfacción. Es que los desarrolladores más intensivos —precisamente los que generan mayor influencia en las decisiones de adopción tecnológica de sus organizaciones— son los primeros en migrar hacia arquitecturas de múltiples proveedores. Plataformas de orquestación como TrueFoundry ya posicionan esta fragmentación como una ventaja: cuando un proveedor alcanza su límite, el flujo se redirige automáticamente al siguiente. Anthropic entrenó a sus usuarios más valiosos para no depender de Anthropic.
Lo que la industria confunde con estrategia
Hay un patrón que se repite en el mercado de asistentes de IA de alto rendimiento: todas las empresas compiten sobre las mismas variables. Más tokens de contexto, mayor velocidad de respuesta, más horas de acceso, precios ligeramente diferenciados entre niveles Free, Pro, Team y Enterprise. El resultado es una carrera donde el diferencial competitivo se mide en porcentajes dentro de los mismos ejes, y donde los costos de infraestructura crecen proporcionalmente al valor que se entrega.
Lo que ninguna empresa del sector ha resuelto con claridad es la pregunta de fondo: cuánto del uso intensivo que realizan sus mejores clientes está generando ingresos suficientes para sostenerse. Anthropic reconoció en julio de 2025 que menos del 5% de sus usuarios Pro activan los límites semanales más altos. Eso significa que el sistema de restricciones no está diseñado para gestionar al usuario promedio, sino para contener a una minoría cuyo comportamiento de uso hace que el modelo económico no cierre.
El problema es que esa minoría no es un segmento marginal. Son los ingenieros de startups de alto crecimiento, los arquitectos de software en empresas medianas, los equipos técnicos que evalúan qué herramienta adoptar a escala organizacional. Perder su lealtad operativa no tiene impacto solo en la factura mensual de una suscripción Pro. Tiene impacto en las decisiones de compra Enterprise que se toman seis meses después.
Mientras tanto, la respuesta táctica de Anthropic —duplicar temporalmente los límites en horarios de baja demanda durante marzo de 2026 para usuarios del plan Team— ilustra con precisión el tipo de ajuste que no resuelve nada estructural. Es una promoción disfrazada de concesión. Incentiva experimentación sin comprometer el techo real de lo que el sistema puede sostener cuando la demanda vuelve a su nivel habitual.
El modelo que nadie ha construido todavía
Hay un espacio sin ocupar en este mercado, y no está en el extremo del más contexto o más horas. Está en la dirección opuesta.
El usuario que golpea los límites de Claude no está buscando infinitas horas de cómputo por un precio fijo. Está buscando predictibilidad operativa: saber con certeza cuánto puede hacer antes de que su flujo de trabajo se detenga. Lo que Anthropic eliminó con los recortes de septiembre de 2025 no fue solo capacidad de uso, sino la posibilidad de planificar. Y eso tiene un costo operativo real para los equipos de desarrollo que habían integrado Claude Code como parte de su ciclo de entrega.
Una arquitectura de valor construida sobre esa necesidad específica tendría una forma diferente. Implicaría comprometer cuotas mensuales de cómputo fijas y predecibles —no ventanas de cinco horas sujetas a la demanda del sitio— a cambio de contratos con compromiso mínimo. Implicaría separar con claridad el costo del modelo base del costo de las funciones agénticas de alta intensidad, en lugar de esconder todo bajo un precio plano que no puede sostenerse. Implicaría, sobre todo, dejar de intentar capturar simultáneamente al usuario casual y al ingeniero que procesa bases de código completas, porque sus necesidades y su disposición a pagar son incompatibles dentro del mismo plan.
En marzo de 2026, Anthropic registró solicitudes de documentación más clara y no anunció ninguna reversión. Esa respuesta confirma que la empresa reconoce el problema pero no ha decidido qué tipo de negocio quiere construir sobre él.
El liderazgo que esta situación exige no consiste en afinar los límites dinámicos ni en lanzar promociones temporales para calmar la presión de los foros. Consiste en tener la claridad de eliminar las variables que generan fricción sin ingresos proporcionales, reducir la promesa a lo que realmente puede sostenerse, y crear un modelo de acceso donde el cliente más valioso no sea el primero en irse cuando la infraestructura no da más. Las empresas que logren eso no van a ganar la guerra por el usuario de IA más intensivo. Simplemente dejarán de perderlo.











