El memo que OpenAI no quería escribir
El 9 de abril de 2026, OpenAI distribuyó entre sus accionistas un memo que atacaba directamente a Anthropic, describiendo a su rival como una empresa que opera en una escala "meaningfully smaller". La frase es técnicamente precisa: invoca las leyes de escalado de modelos de lenguaje, el argumento de que el rendimiento crece con el cómputo y los datos, y que Anthropic simplemente no tiene los recursos para alcanzar a OpenAI. Es un argumento correcto. Y, paradójicamente, es también una señal de alarma.
Los líderes de mercado con posiciones consolidadas no necesitan explicarle a sus accionistas por qué el segundo jugador es inferior. Lo hacen los líderes que sienten que la distancia se está acortando. Que Anthropic haya llegado a una valoración superior a 60 mil millones de dólares, que sus modelos Claude estén siendo integrados por empresas como Salesforce y Notion, y que más de 430 empleados de Google y del propio OpenAI hayan firmado una carta pública respaldando las líneas rojas de Anthropic en contratos con el Pentágono, son datos que no se resuelven con un memo. Se resuelven con estrategia.
La renuncia que Anthropic convirtió en posicionamiento
El detonante de este ciclo de tensiones fue un contrato con el Departamento de Guerra de los Estados Unidos. Anthropic rechazó firmar un acuerdo que permitía el uso de su tecnología para "cualquier fin lícito", exigiendo en cambio dos excepciones específicas: que su IA no se utilizara para armas autónomas plenas ni para vigilancia doméstica masiva. OpenAI aceptó el acuerdo bajo términos más amplios, aunque luego reconoció que el contrato inicial "parecía descuidado y oportunista" y negoció restricciones adicionales.
Este momento es, desde mi perspectiva como estratega, el más revelador de toda la historia. Anthropic sacrificó un contrato gubernamental de 200 millones de dólares. No lo pospuso, no lo renegoció hasta el límite, no buscó un lenguaje ambiguo que le permitiera firmar con consciencia tranquila. Lo rechazó. Esa renuncia tiene un costo financiero inmediato y concreto, pero también tiene un efecto de posicionamiento que ninguna campaña de marketing puede comprar: la percepción de coherencia entre lo que la empresa declara y lo que la empresa hace.
El CEO de Anthropic, Dario Amodei, cometió el error táctico de convertir ese momento de fortaleza en munición para sus críticos, al filtrar un memo interno donde calificaba al equipo de OpenAI de "crédulo" y a sus seguidores de "idiotas de Twitter". El memo fue escrito, según su propia explicación posterior, pocas horas después de una serie caótica de anuncios. Su disculpa pública fue directa: reconoció que el tono no reflejaba sus posiciones reflexionadas. El daño reputacional fue real, especialmente entre los 430 firmantes de esa carta que lo habían respaldado públicamente días antes.
Pero hay algo importante que no cambia con ese desliz comunicacional: la decisión estratégica de fondo siguió en pie. Anthropic no revirtió su posición. No firmó el contrato después de la presión. Esa consistencia entre decisión y principio orientador es lo que determina si una empresa tiene una estrategia o simplemente tiene buenas intenciones.
Lo que el memo de OpenAI le dice a sus propios accionistas
Volvamos al memo de OpenAI, porque es el documento más interesante de esta historia. Una empresa que en condiciones normales evita nombrar a competidores en comunicaciones públicas decidió, en una comunicación dirigida a sus propios accionistas, atacar explícitamente a Anthropic por su escala. La lógica aparente es tranquilizadora: "nuestro rival es más pequeño, no puede alcanzarnos".
La lógica real es la inversa. Los accionistas ya estaban inquietos. La existencia del memo no crea la inquietud, responde a ella. Y el argumento técnico que usa OpenAI, que Anthropic opera en una curva de escala inferior, tiene un problema estructural: es exactamente lo que cualquier empresa dominante ha dicho sobre sus retadores antes de perder cuota de mercado. IBM lo dijo sobre Microsoft. Microsoft lo dijo sobre Google. El argumento de escala es válido en el laboratorio; en el mercado empresarial, pierde frente al argumento de confianza y adecuación.
Las empresas que están integrando Claude de Anthropic en sus plataformas no lo hacen porque sea más barato o más grande. Lo hacen porque, en segmentos donde la gobernanza del uso de IA importa, la trayectoria de decisiones de Anthropic construye un argumento de confianza que OpenAI todavía está tratando de articular. La ventaja competitiva en el segmento empresarial no se mide en petaflops; se mide en la percepción de alineación de incentivos entre proveedor y cliente.
OpenAI tiene un problema de coherencia interna que este episodio expone con claridad. Aceptó un contrato que luego reconoció que parecía descuidado. Eso no es un accidente comunicacional; es una señal de que los procesos de decisión sobre contratos sensibles no estaban alineados con el mensaje público de la compañía sobre seguridad. Cuando el propio equipo de OpenAI tuvo que renegociar términos para excluir explícitamente la vigilancia doméstica masiva, estaba, en los hechos, acercándose a las condiciones que Anthropic había exigido desde el principio.
Una industria que ya no puede fingir que la escala lo resuelve todo
Lo que esta disputa revela, más allá de las tensiones entre dos compañías específicas, es que el mercado empresarial de inteligencia artificial está entrando en una fase de maduración donde el argumento de escala ya no es suficiente para ganar contratos grandes y sensibles. Las empresas con exposición regulatoria, los gobiernos que deben justificar sus decisiones de adquisición tecnológica ante audiencias internas y externas, y los equipos de tecnología que responden ante juntas directivas cada vez más alertas sobre riesgos de reputación, están empezando a evaluar a sus proveedores de IA con criterios que van más allá del rendimiento de los modelos.
En ese contexto, la posición que Anthropic ha construido, a costa de perder un contrato de 200 millones de dólares y de sufrir una crisis de relaciones públicas por el memo de su propio CEO, tiene un valor estratégico que su valoración de 60 mil millones de dólares apenas empieza a reflejar. No porque Anthropic sea una empresa perfecta, sino porque sus renuncias son coherentes con su propuesta de valor, y esa coherencia es exactamente lo que los clientes empresariales pagan por tener.
OpenAI, con toda su ventaja de escala, tiene por delante una tarea más difícil de lo que sugiere su memo: construir la confianza institucional que permite ganar en el segmento más exigente del mercado. La escala amplifica las capacidades de un modelo. No amplifica la credibilidad de las decisiones de sus líderes.
La lección para cualquier C-Level que observe esta disputa desde afuera es directa y sin adornos: el posicionamiento estratégico más duradero no se construye eligiendo qué ofrecer, sino sosteniendo con consistencia lo que se decidió no hacer, incluso cuando el costo de esa renuncia aparece en el estado de resultados del trimestre siguiente. Las empresas que intentan estar disponibles para todos los clientes, bajo todas las condiciones, con todos los usos posibles, no acaban conquistando el mercado total. Acaban siendo irrelevantes en el segmento que más importa.









