El Pentágono chocó con las “líneas rojas” de Anthropic y descubrió un hecho incómodo: en IA, la dependencia no se negocia con ultimátums
La secuencia es tan rápida como reveladora. En julio de 2025, Anthropic firmó un contrato de 200 millones de dólares con el Departamento de Defensa de EE. UU. para desplegar Claude, descrito en la cobertura como el primer modelo de IA de frontera aprobado para redes clasificadas. El acuerdo llevaba dos restricciones explícitas: no usar Claude para vigilancia doméstica masiva sobre estadounidenses y no usarlo para armas totalmente autónomas capaces de seleccionar y atacar objetivos sin intervención humana.
En enero de 2026, un memorando de estrategia de IA del Secretario de Defensa, Pete Hegseth, empujó un giro contractual: exigir lenguaje de “cualquier uso legal” en los contratos de IA del Pentágono. A finales de febrero, la presión escaló con ultimátums y amenazas de herramientas legales. El 27 de febrero, tras vencer el plazo sin acuerdo, el presidente Donald Trump publicó una directiva para “cesar inmediatamente” el uso de la tecnología de Anthropic en agencias federales, con seis meses de salida para quienes ya estaban integrados. El mismo día, Hegseth designó a Anthropic como “riesgo de cadena de suministro para la seguridad nacional”, añadiendo una restricción adicional: que ningún contratista o socio que trabaje con el ejército mantuviera actividad comercial con Anthropic.
Y entonces llegó el giro. A inicios de marzo de 2026, reportes indicaron que las negociaciones se reanudaban. En paralelo, una fuente describió un “whoa moment”: líderes de defensa habrían dimensionado cuán indispensable era Anthropic y el riesgo operativo de perder acceso. En una cita atribuida por Fortune a Emil Michael, funcionario del Pentágono, aparece una frase clave: “Quiero a todos. Quiero darles los mismos términos porque necesito redundancia”.
Desde mi lente de innovación y comportamiento del “cliente” —en este caso, el Estado— lo importante no es el dramatismo político. Lo importante es el mecanismo: cuando una organización integra un modelo de IA en análisis, planificación y operaciones, deja de comprar un producto. Empieza a contratar continuidad operativa.
El conflicto real no fue “IA sí o IA no”, fue gobernanza del uso
La discusión pública se puede leer como un choque de principios, pero comercialmente fue un choque de derechos de uso. Anthropic sostuvo dos salvaguardas como no negociables: prohibición de vigilancia doméstica masiva y prohibición de uso en armas totalmente autónomas. El Pentágono buscó reemplazarlas por un paraguas de “cualquier uso legal”, que según la evaluación de Anthropic venía acompañado de lenguaje que permitiría ignorar las salvaguardas “a voluntad”.
En una negociación corporativa típica, “uso permitido” es un anexo. Aquí es el corazón del producto. Porque en IA de frontera, la interfaz de valor no es solamente el modelo; es el sistema de permisos, trazabilidad, auditoría y responsabilidad que define qué se puede hacer con ese modelo en contextos de alto riesgo.
El Pentágono intentó algo parecido a lo que hacen muchas grandes organizaciones cuando sienten que un proveedor es crítico: convertir un contrato con límites claros en una licencia amplia que reduzca fricciones internas futuras. En su lógica, “cualquier uso legal” simplifica el gobierno contractual y evita tener que renegociar cada vez que cambia la doctrina, la operación o el entorno geopolítico.
Anthropic, en cambio, estaba defendiendo otra forma de proteger su activo. No solo por reputación, también por exposición comercial y regulatoria. Si un proveedor acepta que su producto puede ser usado en escenarios que exceden su marco de seguridad, termina vendiendo algo más caro que el modelo: vende responsabilidad incierta.
El punto fino es que ambas partes estaban optimizando por riesgos distintos. El cliente quería elasticidad y control; el proveedor quería límites verificables. El choque no prueba que una de las dos posiciones sea “buena” o “mala”. Prueba que, cuando la IA entra en misiones críticas, las cláusulas dejan de ser jurídicas y se vuelven arquitectura del negocio.
La designación de “riesgo de cadena de suministro” convirtió un desacuerdo contractual en un problema de continuidad
La etiqueta de “Supply-Chain Risk to National Security” funciona como un misil de señalización: no hace falta que sea definitiva para generar impacto. En el corto plazo, dispara incertidumbre en toda la red de contratistas y subcontratistas que no pueden permitirse ambigüedad sobre cumplimiento.
El briefing menciona que se consideraron mecanismos como la Defense Production Act y la autoridad bajo 10 U.S.C. § 3252 para excluir a Anthropic en subcontratos de sistemas de seguridad nacional. También se recoge que Anthropic sostuvo que, incluso si se sostuviera legalmente la designación, podría restringir el uso de Claude en trabajo de contratos del Departamento de Defensa, no necesariamente el trabajo comercial general.
En términos de negocio, este matiz importa menos que el efecto inmediato: una organización que depende de Claude para análisis, planificación, ciberoperaciones y simulación, y una constelación de proveedores que lo usan para entregar al Pentágono, se enfrentan a un choque de ruta. No se reemplaza de un día para otro un modelo desplegado en entornos sensibles, no solo por costo, también por tiempos de migración, revalidación, adaptación de flujos, entrenamiento y re-certificación interna.
Por eso la frase del “whoa moment” es tan creíble como dinámica, sin necesidad de adornos. Cuando se corta el acceso a una pieza integrada en procesos críticos, el “cliente” descubre que lo que compró no era una herramienta. Era un andamio operacional.
En consumo, esto pasa cuando un servicio se vuelve hábito y luego infraestructura. En defensa, pasa cuando una capacidad se vuelve “backbone” de análisis. La reacción del Pentágono sugiere que Claude había alcanzado ese umbral.
La lección estratégica: el Estado está aprendiendo a comprar IA como si fuera infraestructura crítica
La cita atribuida a Emil Michael —“necesito redundancia”— revela un patrón de madurez en compras tecnológicas: la prioridad deja de ser “el mejor modelo” y pasa a ser resiliencia por diversificación. En la práctica, eso significa mantener alternativas activas (Anthropic, OpenAI y otros) para que ninguna interrupción, disputa contractual o cambio de condiciones deje a la organización sin capacidad.
Este principio es viejo en energía, telecomunicaciones y logística. En IA de frontera, está empezando a aplicarse con atraso porque el mercado aún se comporta como si se comprara software tradicional. El caso Anthropic demuestra que esa analogía ya no alcanza.
Primero, porque la “IA” aquí no es un módulo aislado: está desplegada en redes clasificadas y se usa para funciones sensibles. Segundo, porque el poder de negociación cambia cuando el proveedor es uno de pocos capaces de cumplir requisitos técnicos y de seguridad. Tercero, porque la gobernanza del uso no se resuelve con un checkbox contractual: se vuelve parte del diseño del sistema.
Si el Pentágono insiste en estandarizar “cualquier uso legal” para todos, está intentando convertir la IA de frontera en un commodity contractual. El mercado, por ahora, no es un commodity. Hay pocos proveedores, y algunos tienen líneas rojas explícitas.
El resultado probable es que la compra pública evolucione hacia modelos de adquisición con capas:
- Términos base comunes para facilitar portabilidad.
- Anexos de uso por misión o dominio.
- Redundancia real en proveedores, no solo en papel.
Nada de esto garantiza armonía, pero reduce el riesgo de que una disputa contractual se convierta en una crisis operativa.
El verdadero “producto” de Anthropic para el Pentágono era confianza operativa, no solo desempeño del modelo
El briefing recuerda que Anthropic ya se había posicionado como inusualmente “defense-friendly” para estándares de Silicon Valley: fue pionera en desplegar modelos en redes clasificadas, ofreció modelos personalizados para clientes de seguridad nacional, y Claude se utilizaba en múltiples funciones dentro del aparato de defensa. También se menciona que la empresa declinó ingresos significativos al cortar acceso a firmas vinculadas al Partido Comunista Chino y que cerró intentos de abuso de Claude en ciberataques patrocinados.
No hace falta convertir eso en épica para extraer el aprendizaje comercial: el Pentágono no estaba comprando solo “capacidad de generación de texto”. Estaba contratando un paquete más amplio de señales de alineamiento, respuesta y control. En mercados de alto riesgo, esas señales equivalen a una moneda.
Cuando luego el gobierno ordena “cesar inmediatamente” y marca al proveedor como riesgo, la moneda se devalúa para ambos lados.
- Para el Pentágono, porque la interrupción pública transmite al resto de la base industrial que la continuidad puede depender de la política del momento.
- Para Anthropic, porque la etiqueta de riesgo siembra dudas en contratistas, incluso si más tarde se negocia una salida.
Aquí aparece un principio incómodo para compradores grandes: el poder de compra no elimina la dependencia cuando el activo es escaso y la integración es profunda. La palanca deja de ser el volumen y pasa a ser el diseño del portafolio y la capacidad de migrar.
El “whoa moment” es la señal de que el comprador chocó con la realidad de la implementación. Es la diferencia entre amenazar desde procurement y operar desde misión.
La dirección que se impone: diseñar contratos que compren capacidad sin comprar conflicto
Este episodio deja una pauta para cualquier organización —pública o privada— que esté integrando IA en procesos esenciales.
1) Separar el deseo de control total de la necesidad de continuidad. El control contractual absoluto suele maximizar fricción con proveedores que protegen límites de uso. La continuidad se maximiza con redundancia y con mecanismos de reemplazo realistas.
2) Tratar las salvaguardas como parte del producto. En IA de frontera, las restricciones de uso no son un capricho; son un componente de riesgo y reputación. Para el comprador, son también una forma de disciplina interna: obligan a documentar, justificar y auditar usos sensibles.
3) Construir “opciones” antes de necesitarlas. La redundancia no se improvisa cuando ya hay una orden de salida en seis meses. Requiere integración paralela, pruebas, validación y entrenamiento operativo.
La frase atribuida a Emil Michael apunta en esa dirección: mantener a “todos” con términos comparables para sostener redundancia. No es romanticismo multivendor; es comprar libertad de maniobra.
El comportamiento del “consumidor” institucional en esta noticia es transparente: el Pentágono estaba contratando capacidad inmediata y confiable para analizar y decidir en contextos de alta presión. El choque con Anthropic demuestra que, cuando la IA se vuelve indispensable, el trabajo que el usuario realmente compra no es un modelo más potente, sino continuidad operativa con límites de uso claros y sostenibles.












