El Pentágono bloqueó a Anthropic por negarse a desactivar sus frenos

El Pentágono bloqueó a Anthropic por negarse a desactivar sus frenos

Un tribunal federal avaló el veto del Departamento de Defensa a Claude. La decisión revela algo que los laboratorios de IA no habían calculado: que las salvaguardas de seguridad no son un diferenciador comercial cuando el cliente es el ejército.

Clara MontesClara Montes9 de abril de 20267 min
Compartir

El fallo que partió a la justicia estadounidense en dos

El 8 de abril de 2026, el Tribunal de Apelaciones del Circuito del Distrito de Columbia rechazó la solicitud de emergencia de Anthropic para suspender temporalmente su designación como riesgo en la cadena de suministro del Departamento de Defensa. La decisión fue escueta pero quirúrgica: el tribunal reconoció que Anthropic sufriría "cierto grado de daño irreparable", pero dictaminó que ese daño era "principalmente financiero" y que el balance equitativo favorecía al gobierno durante un conflicto militar activo.

Lo que hace esta historia particularmente compleja es que existe un fallo paralelo que apunta en dirección contraria. Un juez federal en San Francisco había concedido previamente una medida cautelar que obligó a la administración Trump a retirar las etiquetas de riesgo y permitió que agencias federales distintas al Pentágono siguieran usando Claude. Dos tribunales, dos lecturas opuestas del mismo conflicto. Anthropic puede seguir vendiendo su modelo a casi todo el gobierno federal, pero tiene la puerta del Pentágono cerrada con llave mientras la litigación avanza hacia una audiencia programada para el 19 de mayo de 2026.

El origen del conflicto no fue una disputa técnica ni un problema de licencias. Según la información disponible, el Departamento de Defensa exigió que Anthropic eliminara ciertas salvaguardas de seguridad de Claude como condición para un contrato. Anthropic se negó. El Pentágono respondió con una designación formal de riesgo en la cadena de suministro bajo legislación federal, lo que prácticamente borra a la compañía del mapa de contratación para defensa.

Cuando el producto que te hace diferente te cierra una puerta

Aquí reside el nudo estratégico que los análisis convencionales sobre este caso están pasando por alto.

Anthropic fundó su identidad comercial sobre una premisa específica: construir sistemas de inteligencia artificial con controles de seguridad integrados. Esa es la razón por la que Claude existe como producto distinto, la razón por la que la compañía atrae talento diferente al de OpenAI o Google DeepMind, y la razón por la que ciertos clientes corporativos la prefieren. Las salvaguardas no son un accesorio. Son la arquitectura del producto.

El problema es que el Departamento de Defensa no contrató a Anthropic para comprar su filosofía sobre IA segura. Contrató, o intentó contratar, una capacidad operativa específica para contextos militares. Desde esa perspectiva, las salvaguardas que Anthropic considera el núcleo de su propuesta de valor son, para el Pentágono, un obstáculo funcional. El "trabajo" que el cliente quería que Claude realizara requería precisamente la ausencia de algunos de esos controles.

Esto coloca a Anthropic en una posición que pocas startups enfrentan con tanta claridad: su diferenciador central es incompatible con los requisitos de su cliente más grande potencial. No es un problema de precio, de rendimiento técnico ni de reputación corporativa. Es una incompatibilidad de diseño que ninguna negociación comercial puede resolver sin que una de las dos partes abandone su posición fundacional.

Las consecuencias prácticas no son menores. Los contratistas de defensa ahora operan con dos versiones de política: pueden usar Claude para proyectos no relacionados con el Departamento de Defensa, pero deben excluirlo de cualquier trabajo vinculado al Pentágono. Eso crea silos operativos que complican la gestión de herramientas, aumentan los costos de entrenamiento interno y generan fricción en organizaciones que trabajan simultáneamente en contratos civiles y militares.

La geometría del daño financiero y lo que el tribunal midió mal

El tribunal del Circuito de D.C. descartó el daño de Anthropic calificándolo de "principalmente financiero". Esa caracterización merece un análisis más frío.

Cuando un tribunal federal designa a una empresa como riesgo en la cadena de suministro de defensa, el impacto no se limita a los contratos perdidos con el Pentágono. La etiqueta contamina la percepción de riesgo en sectores adyacentes: agencias de inteligencia, contratistas con contratos duales, socios internacionales del gobierno estadounidense y, potencialmente, empresas del sector privado que priorizan no tener proveedores con litigios activos contra el gobierno federal. El daño reputacional de ese tipo de designación opera de forma diferente al daño directo por contratos cancelados, y es considerablemente más difícil de cuantificar o revertir con una declaración de prensa.

Anthropic obtuvo una victoria parcial con la medida cautelar de San Francisco, que forzó al gobierno a retirar las etiquetas de riesgo para agencias no relacionadas con defensa. Eso contiene el contagio. Pero el tribunal de D.C. mantuvo la designación del Pentágono activa, lo que significa que el riesgo reputacional persiste en el sector de defensa durante meses adicionales, mientras los competidores negocian contratos que Anthropic no puede tocar.

La posición de OpenAI y Google en este escenario es objetivamente más cómoda. Sin la restricción de salvaguardas integradas que Anthropic se niega a desactivar, ambas compañías tienen mayor flexibilidad para adaptar sus modelos a los requerimientos operativos del Departamento de Defensa. La exclusión de Anthropic no es solo una pérdida de ingresos en el corto plazo; es una ventana de seis a doce meses durante la cual sus competidores pueden consolidar relaciones contractuales con el Pentágono que serán difíciles de desplazar una vez que la litigación concluya, independientemente del resultado judicial.

Lo que este caso le dice a cualquier empresa de tecnología que trabaja con gobiernos

El patrón que emerge aquí no es exclusivo de la inteligencia artificial ni de Anthropic. Es la versión 2026 de una tensión que ya vimos con empresas de cifrado en los años noventa, con fabricantes de drones en la década pasada y con plataformas de comunicación en conflictos recientes: los gobiernos, particularmente en contextos de seguridad nacional, no compran tecnología para adaptarse a ella. Compran tecnología esperando que ella se adapte a sus doctrinas operativas.

La estrategia de Anthropic de mantener sus salvaguardas es coherente con su identidad y, desde una perspectiva de largo plazo, puede ser la correcta. Ceder en ese punto habría erosionado la credibilidad que construyó con clientes corporativos que valoran precisamente esos controles. Pero esa decisión tiene un costo que ahora el mercado puede medir con precisión: al menos seis meses de exclusión del mayor comprador institucional de tecnología del mundo, con una audiencia en mayo que determinará si esa exclusión se extiende indefinidamente.

El éxito de largo plazo de Anthropic en el sector público dependerá de si logra demostrar que existe un segmento del gobierno federal dispuesto a contratar inteligencia artificial bajo las condiciones que la compañía impone, y de si ese segmento es suficientemente grande para sostener su modelo de negocio sin el Pentágono. La medida cautelar de San Francisco sugiere que ese segmento existe. Lo que la decisión de D.C. confirma es que el segmento de defensa, el más capitalizado de todos, no forma parte de él bajo las condiciones actuales.

El trabajo que el Pentágono intentaba contratar no era un modelo de lenguaje avanzado. Era una capacidad operativa sin restricciones, y Anthropic se negó a venderla. Esa negativa fue una decisión de producto disfrazada de litigio.

Compartir
0 votos
¡Vota por este artículo!

Comentarios

...

También te puede interesar